Máme další obrázky Radeonu RX 6900 a RX 6800/6700(?). Už obsahují HW dekodér AV1

103

Další novinky ke grafikám Radeon RX 6000 s architekturou RDNA 2: obrázek chladiče už i druhé levnější karty s dvěma větráky a také informace o podpoře AV1.

Včera jsme měli možnost vidět první obrázek toho, jak bude vypadat Radeon RX 6000 s novou architekturou RDNA 2 – respektive asi nejvýkonnější model řady, který by mohl mít označení třeba RX 6900 XT. Vzápětí prosákly neoficiálně další obrázky, už ovšem nejen stejné tříventilátorové karty, ale i další se dvěma ventilátory, což by mohlo být chlazení určené pro nějaký nižší /levnější model.

A vedle toho máme ještě jednu novinku k těmto grafikám, objevil se totiž doklad jedné vítané funkce v multimediálním čísti těchto GPU.

Tentokrát už nejde o fotky/vizualizace ukázané oficiálním marketingem (pokud je tedy nepodstrčil pokoutně), obrázky zveřejnil youtuber JayzTwoCents. Jde o dva další rendery, které musely asi vzniknout v AMD nebo u subdodavatele, který design navrhl, Vedle toho tu ale máme i zdá první reálnou fotografii, na níž je tříventilátorová karta s dvěma osmipiny.

Radeon RX 6900 XT (možná)

Na této fotce je lépe patrná barevnost. Karta bude kombinovat černý kryt s stříbrolesklým kovovým povrchem (asi jde o hliník) a tradiční červenou barvu firmy bude hájit proužek okolo bočního výdechu. Není úplně jasné, zda bude prostě červeně nabarvený, nebo bude červeně svítit (to by mělo logo Radeon, které je na fotce bílé). Pasiv je jinak černě eloxovaný, což byl prvek přítomný u Founder Edition karet Turing (GeForce RTX 2000) od Nvidie.

AMD Radeon RX 6900XT Zdroj: JayzTwoCents

Technických detailů nám snímek moc nepřináší – je potvrzeno napájení dvěma osmipiny, takže TDP by nejspíš mohlo být pod 300 W jako u Radeonu VII, ale pokud by AMD použilo i elektřinu ze slotu PCI Express, tak může spotřeba být i vyšší. Viz 350 W u RTX 3090 také ze dvou osmipinů. Chladič jinak vypadá jako víceméně dvojslotový (ale nějaký malý přesah tam asi bude). V praxi samozřejmě budete muset nechat volný ještě třetí slot, ale u tříslotového chladiče byste takto museli obětovat čtvrtý.

AMD Radeon RX 6900XT Zdroj: JayzTwoCents

Ventilátory s okružím

Ovšem přece je tu jen jedna věc, kterou jsme si včera na oficiálním renderu nevšimli. Ventilátory mají stejně jako právě uváděné karty Nvidie zdá se po okrajích lopatek propojující prstenec. Ten tvoří jakýsi tunel pro proudící vzduch a usměrňuje ho. Znemožňuje únik proudění do stran, ale také zabraňuje roztažení (deformaci) lopatek při rotaci. Toto provedení rotoru by asi mělo zlepšovat dosažený statický tlak.

Radeon RX 6800? RX 6700?

Tuto kartu jsme víceméně již viděli, takže teď pojďme k druhé, která je větším překvapením. Na posledním obrázku je vizualizace designu asi levnější, méně výkonné a také kratší karty jen se dvěma ventilátory. Ty jsou asi stejného typu, ale zde je tvůrce posadil blíže k sobě. Design přebírá od výkonnějšího modelu většinu desginových prvků – otevřený výdech na hřbetu i červenou linku okolo a zřejmě i černý povrch pasivu uvnitř. Také zůstává centrální vybrání s logem Radeon.

AMD Radeon RX 6700XT nebo možná RX 6800 Zdroj: JayzTwoCents

Tato karta používá zdá se také napájení dvěma osmipiny. To znamená, že nemusí mít zas tak výrazně nižší spotřebu, minimálně by asi mohla být někde mezi 225–250 W. Samozřejmě za předpokladu, že se finální podoba nezmění. Návrh PCB i chladiče může počítat s dvěma osmipiny, ale je velmi jednoduché při výrobě místo toho prostě osadit jen osmipin a šestipin (tak to má referenční Radeon RX 5700 XT). AMD může sice nechat dva osmipiny i tehdy, pokud je GPU přímo nepotřebuje – zdroje dnes většinou nemají kabely, které by byly jen šestipinové, většinou je to stejně 6+2pin. Nicméně je třeba raději počítat s horší variantou (že spotřeba bude přes 225 W, nebo třeba i těch 250 W).

Tip: AMD ohlásilo na příští měsíc procesory s jádry Zen 3 i Radeony RX 6000

Jak se tato karta bude jmenovat, není jasné, mohlo by jít o model RX 6700 (XT) nebo RX 6800 (XT), vůbec netouchíme. Pokud je pravda zpráva, že AMD má nachystané tři různé čipy Navi 2X, tak v trojventilátorové kartě by se mohl nacházet ten největší (505mm² Navi 21?), kdežto v tomto dvojventilátorovém provedení by již mohl žhavit dráty menší bráška druhý v pořadí (340mm² Navi 22?). Snad to zjistíme 28. října, na kdy AMD avizovalo odhalení těchto grafik.

Radeony RX 6000 s architekturou RDNA 2 zřejmě mají HW dekodér videa ve formátu AV1

Druhá zpráva, která se k Radeonům objevila, vzešla z patche pro Linux, který AMD nyní poslalo k začlenění. Přidává „registry AV1“ pro multimediální blok VCN 3.0, což znamená, že by měl obsahovat dekodér video formátu AV1. Z kódu ještě není jasné, jaké rozlišení bude podporovat (zda až 8K jako GeForce RTX 3000).

Patch indikující podporu AV1 v GPU s architekturou RDNA 2
Patch indikující podporu AV1 v GPU s architekturou RDNA 2 (Zdroj: Freedsktop.org)

Tuto podporu AV1 (blok Video Core Next 3.0) mají podporovat dva čipy, které zatím kód Linuxu zná. V kódu mají poněkud ztřeštěná krycí jména Sienna Cichlid a Navy Flounder – jde zřejmě o názvy akvarijních rybiček. Je možné, že je AMD v kódu teď používá proto, aby nemuselo uvádět reálná kódová jména Navi 21 (to by podle odhadů mohl být Sienna Cichlid) a Navi 22 (snad Navy Flounder) a až nebude třeba dělat tajnosti, budou se používat více srozumitelná označení.

Status hardwarové komprese do AV1 známý není, ale prakticky určitě ji Radeony obsahovat nebudou. Také GeForce RTX 3000 a procesory Tiger Lake od Intelu umí jenom dekódování, v tuto chvíli asi ještě hardwarový enkodér ani nedává takový smysl.

Galerie: Referenční grafické karty Radeon RX 6000: fotografie, úniky

Zdroje: VideoCardz (1, 2), _rogame, Freedsktop.org, JayzTwoCents

Máme další obrázky Radeonu RX 6900 a RX 6800/6700(?). Už obsahují HW dekodér AV1
Ohodnoťte tento článek!
4.8 (95.38%) 13 hlas/ů

103 KOMENTÁŘE

  1. OT – Noví watchdogs uvádí u doporučeného HW u 4K ultra 2080 ti a Vram 11 GB (je to na wccftech). Je otázka, jestli je to fakt třeba nebo tam těch 11 dali prostě proto, protože tu pamět má 2080 ti.

    Každopádně ta pamět bude fakt zajímavá, jsem zvědavěj, jak dlouho ta 3080 kvůli tomu vydrží.

    • Beriem to tak, ze je to doporucenie a nie nutnost. Okrem toho 1GB VRAM, ako je napriklad oproti RTX 3080, rozdiely nerobi. Stavim sa ale, ze u minimalne u Stacha vide clanok o tom, ako je RTX 3080 kvoli tomu zastarala uz pri vydani.

        • Letos je mantra jasná:
          Nvidia = malá paměť, velká spotřeba
          AMD = neuvěřitelná efektivita, malý čip. Myslím, že letos bude AMD i lépe vonět než nVidia, říkal to Moores law is dead.

            • Mě to nerozčiluje, já to beru, jako když jdu do divadla. Zaplatím lístek (u garážníka příspěju trafficem) a herci (šašek v garáži) mě baví svým představením. On si za ty svoje výkony odměnu zaslouží.

          • Mantra…
            „Nvidia = malá paměť, velká spotřeba AMD = neuvěřitelná efektivita, malý čip“

            Ono niektorým by stačilo aby si skôr než začnú napr. nadávať na spotrebu 3090ky alebo vyzdvihovať efektivitu či „malosť“ jadra u Radeon RX aby si teda predtým prečítali svoje komenty z doby Vegy 64 vs 1080/Ti…

            …aby si pripomenuli ako to zo spotrebou bolo podľa nich „rôzne“, ako sa jaDDrá nedali priamo porovnávať vzhľadom k odlišnej výbave a procesu či kto má na grafiku za 20litrov spotrebu nerieši…

            Ale tak je mi jasné a už to vidno že kabáty a pohľady sa už teraz otáčajú…

            Ako už to vyzerá že nVidia bude žrať ako tank ale tak minimálne pri tej bezkonkurenčnej – zatiaľ tak vyzerá – RTX 3090ke bude samozrejme 350W sakra, sakra dosť ale bude to za mega výkon mimo dosah čohokoľvek na trhu a nie len vysoká spotreba za niečo čo sa dotiahlo na 15mesiacov starú konkurenciu (Vega 64 vs 1080).

            • Ono to TDP fakt neni uplne sranda. Ja mam komp v docela velkem pokoji, pri encodingu si to CPU rekne nekde mezi 130-145W a pri treba nejakem batchi, ktery trva 2 dny, tak se mi v zime zvedne v pokoji teplota o 1-2 stupne. V parnech tyhle veci ani nedelam. Takze at NV nebo AMD, kdyz to bude zrat 3x tolik (celek) a nekdo bude hrat X-hodin v kuse, tak hlavne v mensich mistnostech to bude vesely. Ale v zime, nebude muset aspon tak casto zapinat topeni :))

            • @tombomino Tak to máš ještě super, to mě počítač (resp pc sestava) ohřeje místnost o velikosti 5×4.5m i o 6+C během 2 hodin hraní. V létě není problém mít i 30C v místnosti. Díky bohu už hry moc nehraju, takže se to dá vydržet.

            • @backpa, tak ne, že by to bylo úplně nereálné, ale 6°C nahoru za dvě hodiny ve středně velké místnosti (neznám výšku stropu, ani typ budovy a zateplení) to je tak 1,5-2kW zdroj tepla v dobře utěsněné/zateplené místnosti.

            • Tak sestava (QLED + OLED + 25UW monitor + PC = RX 5700XT + R9 3900X PBO 140W) bere kolem 700+W, během hraní (pokuď Wattmetr nekecá. Zároveň i vždy, když hraju, tak streamuju, takže CPU i GPU jedou víc, než u obvyklého hráče). Bydlím v paneláku, který to teplo drží uvnitř hodně dobře. PC mám pod stolem, Teploměr nad stolem na poličce ve výšce cca 1m nad zemí. Řekl bych, že je to spíše taková tepelná kapsa, jelikož třeba na druhé straně místnosti se mi zdá, že je vždy o trochu chladněji, než kde sedím. Ale v místě, kde sedím, je teplota i o těch 6°C vyšší. Samozřejmě ne vždy, někdy to jde jenom o 3-4C, záleží, jaký záhul zrovna PC dostává a kolik to žere.

            • backpa 16.9.2020 at 18:00
              700W! Tyjo, tak to bych vyhodil oknem. S takovou spotrebou se dokazu smirit u nekolikaU serveru nebo treba pasove brusky, ale pocitac? 😀 Mne uz vadi i tech cca 430W u nejnarocnejsich titulu, a teplotu to pocitove zveda v celem pokoji, i kdyz jsem to nemeril.

            • Alich: Tak jasně, že to zvedne teplotu v celé mistnosti, ale u toho PC to je největší peklo. A to můžu být rád, že nemám Intel, to bych byl s tou spotřebou ještě o dost výše.

    • Ano 11GB je na té kartě, takže tam nejde uvést něco jiného.

      Vývojáři ví jak jsou rozšířené grafiky a jakou paměť mají, nejsou idioti a ví co dělají. Neudělají hru, kterou si zahraje 1-2% hráčů

          • Já už to beru tak, že když někdo chce hrát 4K, tak automaticky stáhne i 4K textury, pokuď jsou dostupné. A není nic horšího, než když máš výkonnou grafiku, ale nezahraješ si hry na max, protože VRAM nestačí, i když zbytek je v pohodě a grafika se tak fláká na nižších detailech..

        • to je pravda. Zapol som X-Plane 11 a dal som do neho 737-800 v 4K textúrach. Všetky detajly som uvalil na max. Nie že by to počítač nedal, ale 4K textúry toho lietadla mi položilo hru. Hodilo chybovú hlášku s nedostatkom VRAM. A to mám 1080 TI s 11GB VRAM. To bolo prvý a posledný raz čo sa mi stalo že mi nestačila VRAM 😀 😀

      • Mě to jedno je, mám grafiku co mi výkonem dostačuje a asi ještě chvíli stačit bude a pokud bych kupoval novou tak s výrazně vyšším výkonem a to jen proto abych mohl hrát hry při pasivním chlazení případně s fany na otáčkách kde nepůjdou slyšet, takže nepřichází v úvahu ani AMD ani NV reference.

        Otázkou je, zda u AMD karet budou k dispozici nereference když to přijde na trh, tzn. zájemce bude omezený na to co připraví AMD.

        Co ale fakt nechápu je ten marketing. Ukážou chladič ve hře, i když připustím že si lidi běží instalovat hru, případně se snaží dostat do místa kde je, tak tam vypadá jak cihla, daleko od reality, ukáží kvalitní render, který už dává lepší představu ale liší od fotky, proč rovnou tu kartu nevyfotili, render vypadá konstrukčně hůře než fotka. Proč se nepochlubí klidně vyfocenou maketou namísto renderů. AMD potřebuje tlačit na masy a i když je fortnite velice úspěšný a hraný titul, tak o té grafice v něm stejně většina lidí vědět nebude nebo jim to bude u zadele, hrají to z jiného důvodu než aby tam koukali po vzhledu nové grafiky.

          • Upřímně ale kdo je „target audience“ toho virálu? My entuziasti, kteří tohle sledují, 1% zákazníků? Co zbylých 99%? Tam je potíž AMD makreting Steve z GN na toto téma měl minulý týden pěkné video.

            Příkladem „Poor Volta“. Pomiňme věcný význam, ale co tenhle výkřik do tmy řekne zákazníkovi, který potřebuje počítač na hraní a o HW se nezajímá, prostě zmáčkne čudlík na té krabici pod stolem, na ploše pokliká ikonku hry a hraje. Takovej člověk vůbec netuší co to Volta je a co tím AMD myslelo.

            • Poor Volta evidentně virálně zabralo, když i několik let poté co Chris Hook (který to vymyslel) odešel z AMD do Intelu, to někteří jedinci stále řeší pod každým druhým článkem.

            • komplik 16.9.2020 at 9:33
              Ja nevim, co proti tomu Fortnite renderu porad mate? Je to neco jineho, nez jsme tu doposud meli a vypada to, ze to funguje. To, ze to nechapete neznamena, ze AMD udelalo v tomto chybu.

              Aznohh 16.9.2020 at 11:03
              Presne! 😀
              I kdyz s „poor Volta“ jsem si take rikal, ze marketing AMD je fraska. Stejne tak The Fixer mi prisel jako hulvatsky hloupy, protoze nemam rad utocne chovani.

            • Tak jasně, že Poor Volta byl fail, ale mluví se o tom do teď. 🙂

        • Mne se ten render visualne taky nelibi. Na druhou stranu je stejne komiksove hezky/skaredy jako Fortnite. Nema to slouzit jako ukazka chladice karty, ale ze se cas vydani karty blizi. Vic bych zatim asi nehledal, zase to komlikujes..

          • Tak proč ukazují chladič tímto způsobem? Že se vydání blíží snad víme když ohlásili ohlášení.

            Jinak design toho chladiče se výrčazně zlepšil, proti triple fanům, co doteď AMD dělalo je to velký skok k lepšímu.

            • A ty jsi si nevsiml, ze se mluvi o tom „ze se muzes kouknout na novu AMD kartu ve fortnite“? Je to normalni reklama. Fortnite ma reklamu z AMD, AMD ma reklamu z Fortnite..nechapu co na tom nechapes. Oplatky „opavia“ nebo „persil“ taky kazdy znal a byvaly doby (nemam televizi, tak nevim jak ted), kdy to tam bylo porad. To jsi se taky divil, proc to tam je?

  2. Chtěl jsem konečně jít zpátky k nVidii ( kvůli NVENC), ale ta opět zmrvila svoje karty, tentokráte pomocí malé paměti. Už teď vidím u mojí RX 5700XT, že některé hry si vezmou skoro všechnu VRAM, tak jak to asi bude vypadat u grafiky, která má výkon 2080Ti a má jenom 8GB VRAM? To si opět nějak kvalitně ve 4K nezahraju a budu muset zůstat u 1440p. Možná je tam nějaká pokročilejší komprese, ale furt je ta paměť fyzicky malá.
    Tak či tak, tento rok novou GPU kupovat už znovu asi nebudu a počkám si na další generaci, která snad bude mít vychytanou tu paměť. AMD má sice fajn grafiky, ale nenabízí to, co já potřebuju a real-time enkodování přes CPU (R9 3900X) taky není vždy výhra.

  3. Jsem rád, že AMD konečně opustilo radiální ventilátory a začalo používat standatní chladiče, které používají AIB partneři už léta.
    Nic víc se z toho vyčíst NEDÁ. jen mě překvapuje, že tady všichni už mají jasno jaký to bude propadák a že je AMD pozadu…
    Pánové stává se z vás opačná strana DDgaráže, jste stejní, jen na druhém konci. Nebylo by lepší počkat na reálné testy? A jak se to bude chovat (jak návrh Nvidie, tak AMD) pod zatížením? Vydání je jen cca 1 měsíc a něco od sebe, takže žádná tragédie.

    A řešit marketing? WTF? Je to dětínské. Jediné, co můžete říci je, že vám se to nelíbí, ale vnucovat to ostatním je blbost a děláte ze sebe trubky, protože někomu se líbí, jinému ne, tak to na světě chodí…

  4. Vzpominam (vzhledem k nazvu) na svuj byvaly HD6870 🙂 jel jsem pro nej do nejakeho prdelniho kramu v centru, alzator ani czc tu kartu nemeli. Vysolil jsem 7200,- a doma byl velice prijemne prekvapeny vykonem i oc.
    Tak snad to amd naceni dobre, ja uz se novych karet nemuzu dockat pro srovnani.
    Diky za newsku.

  5. AMD grafiky majú dlhodobo slabé renomé, však to aj vidieť na radikálnom poklesu predaja, keď za relatívne krátku dobu prišli o 1/3 trhu….Navyše použíté nVidia karty si na bazošoch lepšie držia cenu, potom “ výhodnejšia cena “ novej AMD karty sa časom rozplynie….
    – pre videografa je nVidia ďaleko výhodnejšia investícia, AMD stále nedokáže konkurovať rýchlosťou/kvalitou NVENC
    – pre fotografa bude RTX 3XXX /tensor cores/ takmer iste znamenať zásadný výkonový skok v AI edit
    – hráčska komunita sa na 99% znova nedočká top karty
    Takže jak spieva Katapult – “ Někdy příště ! „

    • Tak v extrémních případech pro 2-3% lidí, co kupují grafiku, platí, co míše C.K. maďar
      Pro 97-98% zbytek (takže prakticky všichni) si raději počkejte, co se vydá, otestuje a pak vybírejte.
      Mě se sice 3080 líbí a bral bych ji, ale chci vidět srovnání, ať nekupuju zajíce v pytli, částečně už něco uvidíme dnes odpoledne.

      • Popletený Wendak sa bez urážok neumí ani podpísať…..top karty reprezentujú schopnosti danej firmy, to je pre obchod dôležitý atribút…zďaleka sa nejedná len výlučne o predaj najvyššieho levelu 3% kupujúcich….to je zrejme nad tvoje chápanie…

        • Top karty reprezentuju maximalny vykon, ale je to naozaj to, co vzdy potrebujeme, za kazdu cenu? Podla mna nie. Ak si nemas problem priplatit, kup si kludne to najdrahsie, ale mna napriklad zaujima vyrovnany balanc v pomere cena\vykon\spotreba na W. Zalezi to vzdy na tvojich specifickych poziadavkach a nie kazdy pracuje s content creation alebo AI model training kazdy den 🙂 No nie? 🙂

          • Iste, preto máme na výber viac modelov v rôznych cenových reláciách. To čo som napísal v posledných dvoch príspevkoch odráža realitu trhu. Inak u Radeoniek je nielen podstatne horšia podpora pre kreatívcov. ale i problémové ovladače, ostatne ten 1/3 prepad Radeoniek na trhu je jasný signál širokej hráčskej komunity…to už objektívne neokecá ani garážmistr….

            • To ja posudit neviem, nie som tunajsi expert na vsetky karty. Ja mam nVidiu, kamarati AMD a vsetci sme spokojni, kazdy mame to co potrebujeme. Kazdopadne verim, ze AMD to potiahne a potrebujeme konkurenciu ako sol, pozrime sa na situaciu Intel vs AMD. Nech si kludne nVidia ostane najlepsia, ale nechcem kupovat ich karty za nehorazne ceny, preto tu mame AMD a ja im zelam len to najlepsie 🙂

          • Nevidím tu nejakého Blaha, ale tynyte, formulu si nekúpiš, respektive bez techničáka nebudeš na nej jazdit. Top karty sa bežne predávajú a používajú, takže tvoj príklad je mimo hru….

          • No tak tady se musim CeKa zastat, protoze top model vetsinou poukazuje na schopnosti dane spolecnosti, ceho kam az muze zajit. V pripade Nvidie je to krasne videt – Pascal, dlouhodobe vyhodna koupe diky sirokemu portfolio, vykonu a spotrebe. Amper vypada dost podobne, mozna i lepe. Co se tyka AMD, tak oni zenou sve top modely na krev, kde vyrazne klesa efektivita a zhorsuji se provozni vlastnosti – vlastne to same, za co je ted kritizovany intel se svymi CPU.
            Co se tyka RX 6000, ja osobne bych pockal, kdybych chtel nove GPU, protoze me minimalne zajima srovnani. Na druhe strane si nemyslim, ze AMD bude mit cip, ktery zadupe do zeme RTX 3090, nebo snad mozneho nasledovnika.

    • Tak víš jak… na objektivním webu pana blogískáře jsou všichni zabanovaní, tak šupky rychle na ostatní weby a spustit hovnomety na plný výkon a stejně objektivně jako to dělá mistr DDemagog pošpinit druhou stranu, aby ta objektivní spravedlnost tak nějak zvítězila. 😉

      • Však on mistr demagog se tu objaví raz-dva, však tombíku…..Ono v podstate ovladače Radeoniek sú perfektné, to len zabednenci za monitorom furt čosi majú….rýchlosť a kvalita enkódovania patrí k špičke, to len menšinová komunita kreatívcov furt neobjektívne rýpe…

        • Až bude mít AMD zase nějaký problém, tak mi napiš, já ho už 3/4 roku neviděl. Podle toho co píšeš, tak AMD nemá ovladače v pořádku doteď, což není pravda. Ano, na přelomu roku byl problém, ale to mívá Nvidia taky a daleko vážnější (uvaření GPU v noťasích)… Enknodování je okrajová záležitost, máš tam ještě vůbec něco validního?

          • kamarád má RX580 a když na youtube klikne na celobrazový režim, tak musí předtím přepnout na maximální kvalitu 480p, jakékoliv vyšší rozlišení způsobí že obrazovka je černá. Tak poraď co je špatně? Říkal jsem mu že jediná možnost je přeinstalovat ovladače, ale to nejde, musím je smazat přes nějaký externí program prý odstraňovač instalace, přepnout se na integrovanou inteláckou grafiku v CPU a nainstalovat ovladače znova?
            Je tento postup správný? Pomůže to?

          • Wendak 16.9.2020 at 16:13
            Tak ono je tam toho vic, jak treba zminoval jeden uzivatel v minulem clanku v reakci na ovladace a linux. Passthrough a dalsi management, kdy Nvidia karty se pri zaseknuti dokazi behem par s resetnout a tedy „vzpamatovat“ bez zasahu uzivatele, zatimco u AMD ten stejny zasek (ktere se deji) to znamena reboot.

    • Taky jsem už zvládl tři reviews. Výkon vůči 2080 je masakr. Chlazení opravdu povedené. A taky fakt, že si špičkově pápne ke 350W. Tady trochu bohužel (nebo pro AMD bohudík 😉 …), že to není na nějakém lepším procesu. Ale je to otázka, TSMC na 7nm je plně vytížená a v tomhle to byl možná od Nvidie dobrý krok, byť za cenu horších provozních vlastností – ale jak horších, to se uvidí s uvedením RX6000.

      • No nevím mě ta karta moc povedená nepřipadá. Spotřeba jako prase, výkon akorát ve 4K je nad 2080TI o 30%. Jinak je to méně. FullHD kolem 18%. Jsou hry kde je pomalu na úrovni 2080ti.
        Na prezentaci ukazovali něco jinýho. Prostě hype jak prase lidi prodávají 2070S kolem 8500kč, 2080S kolem 13k. Záleží za kolik to budou prodávat obchody – nereferenční modely.

        • ty raději nic nečti a nic nekomentuj … kdo by kupoval tuhle kartu na full hd? Ty a kdo další? Meleš od začátku do konce totální kraviny … co by to bylo za kartu, kdyby o 50% předčila zbytek ve full hd a ve 4k by na tom byla stejně? Který idiot by to koupil?

          • Víš o tom prd, kdybys nebyl guma tak bys věděl že velká většina lidí hraje ve fullHD a že jsou LCD co mají 144/240HZ. Těch lidí co má doma 4K LCD nebo TV je minimum. Občas se koukni na statistiky třeba na steamu aby ses vrátil na zem, protože jseš mimo. Ta karta má mít výkon ve všech rozlišeních a ne jen ve 4K. Při prezentaci nám big boss tvrdil něco jinýho.
            https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/single-page.html#assassins-creed-odyssey
            Rozdíl 15FPS oproti RTX2080ti no nevím nevím to není moc rozumný upgrade a spotřeba +100W to je fakt terno.

            • A nenapadnulo vas treba, ze prave vykon stavajicich karet byl duvod nemit 4k? Ze by se to mohlo treba ted zmenit diky novym generacim GPU?

            • Proč oproti 2080Ti? 3080 by se měla srovnávat s 2080 (karty za stejnou cenu). A tam je ten výkonový rozdíl dost znatelný. Na to, co tvrdil při prezentaci big boss, kašlu, jestli věříš všem marketingovým plkům, tvoje chyba. Pokud si pamatuji, Nvidia uváděla „up to 2x 2080“ a v některých hrách, co jsem narychlo viděl testy, se to tomu blíží (cca 1,8-1,9x v testu Borderlands, TomsHW).

            • U Doom Eternal to dokonce těch 2x je (TomsHW). Ale na tom nesejde, ten generační posun je prostě… hodně hodně dobrej.

            • U doomu eternal je finta v tom, ze v tom nejvyssim nastaveni, je 8GB VRAM pamet na 2080 nedostacujici. Kdezto 3080 limitovana neni. Proto dava mensi vykon nez by mohla, Staci o stupen zmensit nastaveni textur, a vysledek je jiny a rozdil je mensi. Je to premerene na techspotu.

          • Na 4K je ta karta slabá v některých hrách to sotva dá 60FPS. Navíc 10GB paměti je výsměch. Na pohodový hraní ve 4K si ještě tak 2 roky počkáme. Výkon stoupnul jen o tu spotřebu. Já bych tu kartu nechtěl ani zadarmo. Resp. ano, obratem bych ji prodal 🙂

  6. Vim, ze toto je clanek o NAVI2, ale RTX 3080 je docela narez. S timto se bude asi AMD tezko potykat. A me ted i tesi, kdyz jsem rikal, ze RTX 20×0 je testovaci shit rada, kterou Nvidia fanousci mile radi zaplati.
    Co se tyka RT, tak nativni porad nic moc, ale s DLSS 2 uz to posunuli o kus dal, a opet AMD asi nastanou krusne casy.
    No a kdyz vezmeme v uvahu vykon, cenu a dostupnost, ve srovnani s o mesic spozdenym (asi papirovym) oznamenim RX 6000, ..AU! Jeste ze ma AMD ty konzole.
    JayZ -> https://www.youtube.com/watch?v=32GE1bfxRVo

    • 3080 je povedena karta a opravdu konecne posun, ktery vsichni cekali uz od 2xxx. Jestli mne ale neco zklamalo, tak je to spotreba a prave RT. Cekal jsem, ze RT bude v tehle generaci o dost lepsi. Tak snad priste. Jay2 je spravny exot a ma celkem zabavne videa, ale pokud je clovek zamereny na techicke testy atd, tak jsou lepsi weby. To stejne plati i pro Linuse.

      • Tak mne vadi spotreba i 250W na GPU, jenze AMD na tom zrejme bude podobne – kolem tech 350W – takze spotreba se asi nebude moci dat brat jako znevyhodnujici argument.
        Co se tyka treba 1080 Ti a RX 580, tak rozdil pri hrani bylo asi 60W (nevim presne uz), ale idle mi spotrebove vychazel lepe u Pascalu.
        U novych generaci GPU predpokladam minimalni rozdily, ale vykonove zrejme ve prospech Nvidie (Watt/frame).
        JayZho jsem sem mrsknul prave proto, ze to to hezky shrnul.

          • U me je cela RTX 20×0 rada spatny vtip, ale nekdo to ma jinak. Takze v tomto souhlasim. Take plne chapu vas postoj.
            Take se ale snazim trochu setrit planetu ruznymi zpusoby a jeden z nich je prave spotreba elektroniky (pokud vylozene nepotrebuji maximalizovat vykon). Napr. proto nemam rad tezbu „kryplomen“ (odpustte mi prosim muj vyraz).

  7. Osobne porizuju RTX 3080baby behala 120Hz plus ve QHD, protoze tam to i RTX 2080 Ti nedavaji. 4K me nezajima na hrani tam to jeste malinko chce ten vykon posoupnout .Nechci hrat na 60Hz …
    Co ma intel je jedno jeden soc. jedna deska jedno CPU nez zase bude zmena.. to vazne za to nestoji. Jak bude Zen 3 hned beru 8smi jadro a procento sem tam neresim.
    AMD GPU take neresim ,prijdou prilis pozde a je mi celkem jedno jestli daji stejny vykon o 50€ levnejsi ,proste prijdou pozde. Provozni vlasnosti ref. RTX 3080 mi prijdou OK ,zdroj na to mam a Wat sem Wat tam vazne resit nemusim

    • 3080 si pápne, to bezesporu. Na grafech, co jsem viděl, špičky spotřeby u té FE lítaly někam k cca 350W a otázka, jak na tom budou OC nereference. Na druhou stranu, předpokládám, že kdo takovéhle karty cíleně kupuje, má nebo si pořídí adekvátní zdroj. V současné době mám pc s řízkem 3700X a zdroj mořskýho soníka gold 650W, takže 3080 FE by předpokládám zvládnul. Jak jsem tu ale už psal, čekám na 3070 (a taky na RX6xxx, jak budou vypadat).