GeForce RTX 4090 vydána, testy venku. Obří mezigenerační skok, byť slibovaných 2–4× to není

16
Nvidia GeForce RTX 4090 Founders Edition 1600
Nvidia GeForce RTX 4090 Founders Edition
-
Zdroj: Nvidia

První grafika GeForce nové generace Ada vyšla. Vypadá to, že reálný výkon je typicky o něco horší, než prezentoval marketing Nvidie, ale to neznamená, že nepřinesla proti předchozí generaci výjimečný nárůst výkonu.

Dnes se začíná prodávat GeForce RTX 4090 a současně už včera vyšly nezávislé recenze této grafiky, první z přicházející nové generace založené na 4nm a 5nm procesech. Nvidia při jejím odhalení slibovala nárůst výkonu až o 2–4×, což bylo hodně odvážné tvrzení. Teď po vydání testů se dá konfrontovat s realitou, která je zřejmě střízlivější než marketing, ale i tak nová generace karet vychází výkonem hodně slušně.

GeForce RTX 4090 asi eventuálně budeme testovat v Ľubově metodice, ale bude to nejspíš až v delším horizontu. Úplná premiéra nové generace si ale zaslouží pohled na to, jak při vydání vypadal výkon aspoň podle recenzí zahraničních webů.

GeForce RTX 4090 je zatím nejvýkonnější (a 1599 $ stojící) model, který v generaci Ada (Lovelace) Nvidia nabídne, se 4nm čipem AD102 o 128 blocích SM a 16 384 jednotkách FP32 (CUDA jádrech / shaderech). GPU má aktivních 176 jednotek ROP, 128 RT jader a 512 tensor jader. Takt GPU je v referenční verzi stanoven na 2235 MHz v základu a 2520 MHz v boostu, nicméně podle recenzí je ve hrách dosahováno obvykle něco okolo 2700 až 2750 MHz (leaker Kopite7kimi se tedy před třemi měsíci nepletl).

K tomu je osazeno 24 GB paměti GDDR6X na efektivní frekvenci 21,0 GHz (21 Gb/s), což dodává propustnost 1008 GB/s. A karta toto vše má při oficiálně 450W TDP v referenční konfiguraci. Napájení je obvykle 16pinovým konektorem ATX 3.0/12VHPWR, se starším zdrojem (tedy drtivou většinou zdrojů) je třeba adaptér na 3–4 osmipinové konektory. Podrobně jsme o dalších vlastnostech nových karet a také o dalších dvou levnějších modelech, které vyjdou později, psali zde:

Ada je tu: Nvidia uvádí GeForce RTX 4090, 4080 a 4080. Až 2–4× rychlejší, ale i o 80 % dražší

Výkon v recenzích

Jak tedy dopadl výkon v nezávislých testech? Zdá se, že Nvidia přece jenom poněkud přeháněla v prezentacích výkonu, když slibovala až 2×, či dokonce 4× vyšší výkon proti kartě GeForce RTX 3090 Ti.

Marketingové materiály Nvidie lákají na výkon lepší o 100 až 200
Marketingové materiály Nvidie lákají na výkon lepší o 100 % až 200 % (zdroj: Nvidia)

Tyto údaje byly patrně založené na započítávání DLSS nebo těch nejlépe vycházejících her do benchmarků; onen 4× výkon je patrně jen při zapnutí zdvojnásobování frekvence pomocí DLSS 3, což se nedá tak úplně počítat (jde v podstatě o „fake“ snímky). Každopádně v metodikách různých testujících redakcí vychází mezigenerační nárůst výkonu nižší.

Tip: S RTX 4000 přichází Nvidia DLSS 3. Nová generace AI upscalingu generuje snímky, obchází limit CPU

Je sice možné, že výkon RTX 4090 je ještě trošku limitován výkonem starších CPU, na nichž byla grafika často testována, takže lze asi trošku odmávnout relativně nižší nárůsty v rozlišeních 1920 × 1080 bodů a 2560 × 1440 bodů, nicméně v rozlišení 4K už by tento faktor měl být relativně nevýznamný. I pokud se však budeme zabývat hlavně tímto rozlišením, vychází průměrný nárůst výkonu proti GeForce RTX 3090 Ti nižší než dvojnásobný.

Poznámka: citované recenze ComputerBase a Tom’s Hardware používají procesor Core i9-12900K, jen test techPowerUpu běžel na procesoru Ryzen 7 5800X (s přetaktováním pomocí PBO).

Rozlišení 4K

ComputerBase uvádí, že v jen „rasterizačních“ hrách má RTX 4090 výkon vyšší o 65 % (proti GeForce RTX 3090 Ti). V hrách s raytracingem je to, jak možná čekáte, o něco lepší – ale zdaleka ne tak diametrálně, aby vyšel 2× výkon – měřeno průměrnými FPS je GeForce RTX 4090 v průměru o 69 % rychlejší než RTX 3090 Ti. Pokrok není větší, ani když se poměřují minima (respektive nejhorší percentil), tam vychází +60 % a +70 % výkonu.

GeForce RTX 4090 v rozlišení 4K CB
GeForce RTX 4090 v rozlišení 4K (zdroj: ComputerBase)

ComputerBase také má spočítaný separátní průměr z her používajících DLSS 2.x nebo FSR 2.x, kde ale také náskok nevzroste, což možná někdo čekal – v rozlišení 4K je výkon RTX 4090 už jen o 51 % nižší (a percentil dokonce jen o 36 %). Toto je ale nakonec logické, když se nad tím zamyslíme – když je aktivní upscaling, probíhá vykreslování na nižším rozlišení, takže 4K výsledky s FPS se budou podobat spíše výsledkům při hraní v nízkých rozlišeních.

Toto ale ještě zkonfrontujme s výsledky jiných recenzí, protože vliv má skladba her a sestava, tudíž přesné „průměrné rozdíly ve výkonu“ mohou být všude trochu jiné. TechPowerUp uvádí, že v rozlišení 4K je nárůst výkonu proti GeForce RTX 3090 Ti dokonce jen +45 % (web bohužel neuvádí separátní průměr pro raytracingové hry) a proti Radeonu RX 6950 XT o 64 % vyšší.

GeForce RTX 4090 v rozlišení 4K
GeForce RTX 4090 v rozlišení 4K (zdroj: Tom’s Hardware)

Tom’s Hardware uvádí v průměru z osmi her nárůst výkonu ve 4K o 55 % (a o 64 % proti Radeonu RX 6950 XT). V separátním průměru z šesti her s raytracingem nastaveným na Ultra kvalitu je ale nárůst proti RTX 3090 Ti +77 % (toto je tedy zatím asi nejlepší výsledek); v tomto testu s ultra raytracingem, který dnešním Radeonům jde hůř, má RTX 4090 také o 190 % vyšší výkon než RX 6950 XT (průměrně 56,0 proti 19,3 FPS).

GeForce RTX 4090 v rozlišení 1440p a 4K TPU
GeForce RTX 4090 v rozlišení 1440p a 4K (zdroj: TechPowerUp)

2560 × 1440

Nižší rozlišení GeForce RTX 4090 zas tak nejdou – patrně je zde limitovaná výkonem procesorů, a proto nezrealizuje takový nárůst výkonu jako ve 4K. Podle Computerbase je v 2560 × 1440 pokrok ve výkonu proti RTX 3090 Ti už jenom +47 % a +51 % pro raytracingové hry. TechPowerUp pak má ve své metodice v tomto rozlišení GeForce RTX 3090 Ti jen o 27 % rychlejší proti RTX 3090 Ti a o 30 % rychlejší proti RX 6950 XT.

GeForce RTX 4090 v rozlišení 1440p CB
GeForce RTX 4090 v rozlišení 1440p (zdroj: ComputerBase)

Tom’s Hardware naměřil u GeForce RTX 4090 nárůst výkon proti RTX 3090 Ti o 27 %, ale o 69 % v ultra raytracingu (proti Radeonu RX 6950 XT vychází jen +25 % bez RT a +160 % s RT Ultra).

GeForce RTX 4090 v rozlišení 1440p
GeForce RTX 4090 v rozlišení 1440p (zdroj: Tom’s Hardware)

Na rozlišení 1920 × 1080 GeForce RTX 4090 nekupujte

V rozlišení 1920 × 1080 bodů je nárůst výkonu proti top modelu předchozí generace logicky nejhorší, zde nejvíce vstupuje do hry faktor limitace procesorem, který celou hru už rychleji nestíhá a nedovolí GPU dosáhnout vyšších FPS.

GeForce RTX 4090 v rozlišení 1080p
GeForce RTX 4090 v rozlišení 1080p (zdroj: Tom’s Hardware)

TechPowerUpu v tomto rozlišení vychází jen o 15 % lepší výkon proti RTX 3090 Ti a jen o 14 % lepší proti RX 6950 XT, Tom’s Hardware jej má jen o 15 % rychlejší proti RTX 3090 Ti a dokonce jen o 10 % rychlejší vůči Radeonu RX 6950 XT. ComputerBase to ani netestuje.

Mezigenerační nárůst výkonu není v 5K vyšší (limitace CPU se možná přeceňuje?)

Na druhou stranu, asi by se zatím neměla úplně přijímat hypotéza, že je grafika i v rozlišení 4K pořád limitovaná výkonem procesoru, a proto testy ukazují nižší pokrok, než na jaký GPU ve 4K skutečně má výkon. ComputeBase totiž otestoval nějaké hry i v rozlišení 5K, kde by tento faktor měl být umenšen, a pokud by tedy karta byla ve 4K ještě pořád výrazně limitovaná procesorem, v 5K by její výkon měl narůst o víc. Paradoxně ale vyšel opak: jen +62 % v rasterizačních a +60 % (zde už tedy naopak míň) v raytracingových hrách (proti +65 % / +69 % ve 4K).

GeForce RTX 4090 v rozlišení 5K CB
GeForce RTX 4090 v rozlišení 5K (zdroj: ComputerBase)

Velmi vydařený mezigenerační nárůst výkonu

Ovšem pozor, toto vše není vůbec špatný výsledek. Sice to teď vyznívá negativně, když jsme začali konfrontací s částečně neoficiálními, ale i oficiálně živenými očekáváními, že GeForce RTX 4090 bude 2× rychlejší proti GeForce RTX 3090 Ti. Ale to je opravdu jen věc optiky a možná určitého přechválení ze strany Nvidie. Benchmarky, které firma prezentovala při odhalení, byly tedy výrazně ovlivněné selektivností a spíše šlo o vyčnívající lepší případy než o ty nejreprezentativnější. Nemluvě o tvrzení o 4× výkonu (při použití vkládání umělých snímků přes DLSS 3).

Ovšem mezigenerační nárůst výkonu dosahující až okolo 60 % nebo mezi 60 a 70 % je velmi dobrý výsledek, který činí z karet GeForce RTX 4090 hodně zajímavou novinku. Když před dvěma lety vyšla GeForce RTX 3090, pokrok ve výkonu byl proti předchozí generaci (RTX 2080 Ti) v rozlišení 4K jen o nějakých 45 %. Architektura Ada má značnou výhodu ve špičkovém 4nm procesu TSMC, zatímco Ampere mělo už ve své době relativně substandardní 8nm proces Samsungu (jenž je odvozený od 10nm technologie). Za výkonnostním pokrokem GPU Ada proti Ampere je tak mimo jiného také výhoda nikoliv o jednu generaci lepšího procesu, ale spíše o jednu a půl či o jednu a tři čtvrtiny generace lepšího křemíku.

GeForce RTX 4090 je teď samozřejmě nejvýkonnějším hráčským GPU na trhu. Minimálně do příchodu konkurenčních grafik Radeon generace RX 7000 od AMD. U těch zatím nevíme jistě, zda GeForce RTX 4090 dorovnají, předběhnou, nebo zda budou o něco pomalejší. Jisté je, že i u nich by měl nastat velký mezigenerační pokrok.

Nvidia GeForce RTX 4090 Founders Edition upoutavka
Nvidia GeForce RTX 4090 Founders Edition (zdroj: Nvidia)

Nicméně je u toho pachuť, že karta má stejně jako předtím vyšponovaná GeForce RTX 3090 Ti šílené 450W TDP. A také velmi vysokou cenu – u nás chce Nvidia za referenční kartu GeForce RTX 4090 Founders Edition brutálních 48 499 Kč (1974 €).

Bez ohledu na výkon asi takovéto ceny (a u „levnější“ RTX 4080 to také nebude dobré) nejsou vývoj, který v PC hraní vítáme. A to není ani ono hnaní spotřeby nad hranici 300 W a teď už i nad 400 W. Nezbývá než doufat, zda proti inflaci cen a spotřeby třeba nepomůže konkurenční soupeření, ale raději na to moc nespoléhejte.

Zdroje: ComputerBase, Tom’s Hardware, TechPowerUp

GeForce RTX 4090 vydána, testy venku. Obří mezigenerační skok, byť slibovaných 2–4× to není
Ohodnoťte tento článek!
4.8 (95.71%) 14 hlasů

16 KOMENTÁŘE

  1. Patrí sa dodať že nVidia to dala na nezmyselný pomer výkon/spotreba.

    der8auer urobil test priebehu spotreby/fps a zrazenie limitu na 80% (reálne 375W) či „len“ 70% (stále značných 329W) prinieslo o 2 resp. 5% nižší výkon oproti východziemu meraniu s reálne 422W. To je hravo 100W koli 4-5% výkonu…

    Ako dodal, karta robená na TDP dajme tomu 350-375W by mohla byť značne menšia a jednoduchšia (lacnejšia ? – ale to asi nie 😀 )

    Ale dobre, hádam pomer výkonu a spotreby napravia slabšie karty resp. ten nárast hrubého výkonu bud iste nie rovnaký ale aspoň podobný (napríklad RTX4060 keby sa dostala jednoznačne nad 3070ku)

  2. Nejsou to náhodou výsledky bez DLSS 3.0, které je podmínkou výsledků 2-4x vyššího výkonu, které NVidia slíbila? 🙂 Já mám za to, že DLSS 3.0 je zatím v beta verzi a není implementováno. Takže jestli je výkon +50-110 % (dle Steva) bez DLSS 3.0, které doslova zdvojnásubuje snímky, pak ony výsledky NVidia sedí 🙂 Jinými slovy, tohle je fakt velký uplift

  3. Je to brual co do toho cipu dali!
    Davam teda do pozornosti, tato RTX 4090 oproti RTX 3090 Ti:
    Transistors (Billion) 76.3 vs 28.3
    GPU Shaders 16384 vs 10752
    Die size (mm^2) 608.4 vs 628.4
    Napriek tomu ze cip je o chlp mensi, zmestilo sa do neho viac ako dvojnasobok tranzistorov (!!!), takze mat dvojnasobny vykon nie je necakane.
    Skoda len tej ceny, hlavne tych lacnejsich verzii…

  4. Zcela určitě bude hodně drahá (zajímavá jen pro boháče) a k tomu je hodně žravá a vlastně nepraktická karta.
    Zde se jedná o jakési pozérství, aby nvidia mohla machrovat, že má tu nej nej nejvýkonější kartu na světě. Machrovat, že to nejlepší je od nás.
    Nevím, jak se rozhodují zákazníci, ale já bych si nekupoval NVidia jen proto, že vyrábí tu nejvýkonější kartu, protože sám si tu nejvýkonější kartu nekoupím a koupím si kartu cenově dostupnou.
    Nechápu lidi, kteří machrují slovy „Já mám kartu od výrobce nejvýkonejší karty na světě!“
    „A máš tu nejvýkonější kartu?“
    „NE. Mám low end, na nic jiného sem neměl.“

    • Ono to býva práveže skôr naopak – takéto karty kupujú paradoxne tí “chudobní”, teda tí, čo nato zväčša nemajú, ale chceli by si myslieť, že hej. Neni žiadny problém našetriť dve výplaty a vyhodiť ich za toto, ak nemáš žiadne iné pohľadávky.

      Mohol by som tu grafiku mať v deň vydania za plnú cenu a ani by to môj účet nepocítil, ale zdravý rozum mi hovorí niečo úplne iné.

      • „ale zdravý rozum mi hovorí niečo úplne iné.“

        Ach jaj, aký je ten svet a definícia „zdravého rozumu“ jednoduchá že ?

        Známi sa už „klepe“ na nereferenčnú MSI RTX4090 (teda ešte drahšiu verziu), pýtam sa, chýba mu zdravý rozum ?

          • Nie, tvoja odpoveď stačí, nebudem ti zasahovať do tvojho jednoduchého videnia sveta.

            PS: ten známy má ešte – mimo inej techniky – 1TB Iphone 13 Pro a v ňom využitých tak 100GB. Šokujúce !!!

            …neviem či to nebude aj tým že jeho účet nákup tej grafiky či 2k€ Iphonu skutočne nepocíti a tak berie to najlepšie bez ohľadu na všetko ostatné.

            • Asi záleží, kdo přesně to je. Ale pokud má průměrnou výplatu, tak zbytečně vyhazuje. A takové vyhazování je hloupé.

            • terminator:
              Každý vyhazuje za něco jiného. To, že pro tebe by to znamenalo hloupé vyhazování neznamená, že pro druhého to bude hloupé.

    • To je tak v každom segmente na trhu, vždy je nejaká špička ktorá za +5% výkonu stojí 2x viac, čísla si dosaď aké chceš.

      Hnanie do extrému ale tlačí technológie vpred, moje 8 ročné (čoskoro 9) CPU, kedysi vyššia trieda, je dnes úplný low-cost a totálny základ aký sa dá kúpiť…toto proste k tomu patrí.

      Ľudia to moc ani nekupujú, možno nejakí streameri, youtuberi alebo fajnšmekri. Skôr je to o tom že o nejaké 4 roky si takúto pecku kúpiš za normálne peniaze v strednej triede.

      • Tak zcela jistě čím více lidé utrácí za hardware, tím více přispívají na další technologický vývoj, který je pak rychlejší.
        Na druhé straně, proč bych měl zrovna já přispět na technologický pokrok více, než musím? Vlastně nemusím nic, nemusím si kupovat počítač.

        Právě to, že je hardware rychle překonaný a zastaralý, je důvod, proč si high-end nekupovat. Protože high-end to nebude dlouho. Je to předražené a status toho nej nej nej nevydrží dlouho.

        Já žasnu, jak někteří musí mít ten nejdražší a nejnovější mobilní telefon a pak zase další a další, aby měli stále nejnovější mobilní telefon. A proč, když jej vlastně ani moc nepoužívám? A nebo nepoužívám jeho funkce.

        • A v tom je to kouzlo. Vaše peníze Vaše volba. A to říkám jako šetřílek který je vděčný za všechny ty nadšence kteří ta to ty peníze obětují. Navíc si říkám aby nám AMD s tou svojí cenou za nové grafiky ještě nevytřelo zrak.

  5. Vydařenost nebo nevydařenost takového počinu se ale vždy projeví hlavně ve srovnání s konkurencí. Proto bych s optimistickým vyjádřením počkal až budeme mít srovnávací testy s konkurencí. Za mne zatím uklidnění že Nvidia vytvořila produkt který se posunul vpřed i když monstróznost rozměrů a spotřeby ve mně budí rozpaky.