Další info k Nvidia Ampere: DLSS upscale na 8K je z 1440p, jak je to s 2×FP32 a jiné detaily

73

Nvidia sdělila další podrobnosti k novým grafikám RTX 3000 Ampere. Mimo jiné: jak bude fungovat DLSS na 8K, zda potřebují PCI Express 4.0 nebo proč má RTX 3080 jen 10 GB paměti…

Tento týden nastalo u Nvidie veliké odhalení nových grafických karet GeForce RTX 3090, RTX 3080 a RTX 3070 s architekturou Ampere. Už jsme jim věnovali podrobný článek (takže pokud vám uniklo, dožeňte).

Nvidia poté na Redditu uspořádala vlákno, kde její zástupci odpovídali na různé otázky. Z něj máme k Ampere a odhaleným GeForce RTX 3000 nové informace, které tady probereme. Je toho poměrně dost.

Jak je to se zdvojením počtu shaderů/FP32 jednotek?

Na začátek architektonickou záležitost. Z Redditu máme zřejmě odpověď na zatím největší záhadu v Ampere, tedy ono zdvojení výpočetních jednotek FP32 ALU, díky kterému mají grafiky Ampere nakonec ve specifikacích dvojnásobný počet shaderů (v řeči kmene Nvidia „Cuda jader“) a dvojnásobný teoretický výkon v TFLOPS.

Toto vzbuzovalo spoustu otázek a na Redditu Tony Tomasi z Nvidie popsal, jak to funguje. Implementace je zdá se taková, že Nvidia přímo nezdvojnásobila celou šířku bloku SM na 128 shaderů z 64 v tom smyslu, jak byste si to nejspíš představovali. Reálně je tato architektonická změna udělána trošku úsporněji a vychází z architektur Volta a Turing.

Jak si jistě pamatujete, jejich novinkou bylo, že zatímco běžně každý „shader“/„Cuda jádro“ znamená jednu ALU (přesně ji je to ale jedna „lane“ v SIMD vektoru) schopnou zpracovat jednu floating point FP32 operaci za takt, Volta a Turing přidali druhou paralelní jednotku pro celočíselné operace (INT32 ALU). Výpočetní úlohy na GPU nepoužívají jen čistě floating-point operace, ale i nějaké pouze celočíselné, a všechny takové bylo možné najednou přesunout na druhou jednotku a vykonat je současně. Tím slušně narostlo využitelné „IPC“ jednoho bloku SM. Tehdy ale Nvidia ještě tyto INT jednotky nepočítala jako samostatné shadery.

Shader v Turingu má kromě floating-point jednotky druhou ALU pro celočíselné operace, které přebírá část zátěže

Chytrá evoluce Turingu/Volty

Ampere zde udělal evoluční změnu a tuto superskalární schopnost posílil. Není přidaná třetí jednotka; ale v už existující duální pipeline FP32+INT32 byla do oné druhé jednotky dosud schopné zpracovávat paralelně jen celočíselné operace přidána schopnost zpracovat i floating-point výpočty, jako to umí první FP32 jednotka.

Ampere tedy má pořád onu dvojitou jednotku jako Volta a Turing, ale už to není FP32+INT32, ale FP32+FP32/INT32. Do této struktury tedy lze tedy teď tlačit za cyklus dvě floating point operace. Pokud máte úlohu složenou čistě z FP32 výpočtů, můžete se dočkat až dvojnásobné propustnosti výpočtu. Pokud ovšem má vaše úloha 50%/50% mix floating-point a integer operací, pak bude výkon stejný jako u Turingu/Volty.

Neoficiální schéma bloku SM u architektury GPU Nvidia Ampere
Neoficiální schéma bloku SM u architektury GPU Nvidia Ampere (Autor/zdroj: Andreas Schilling, HardwareLuxx)

V praxi tedy zdvojení FP32 jednotek a dvojnásobný počet shaderů ve specifikacích většinou nepovede k přesně dvojnásobnému výkonu. Ale IPC by tím mělo obecně narůst, protože většinou asi mix floating-point a integer instrukcí nebude 1:1, ale spíše vychýlený ve prospěch těch floating-pointových (třeba až v poměru 3:1 podle prezentace z doby vydání Turingu). FP32+FP32/INT32 je asi vyváženější výpočetní schopnost než FP32+INT32, byť to samozřejmě potřebuje víc tranzistorů.

Poznámka: mluvíme zde o dvou paralelních jednotkách, ale ve skutečnosti jsou tyto operace prováděny jako SIMD operace najednou s 16 hodnotami/jakoby v 16 ALU. Ono paralelní zpracování INT32/FP32 a FP32 operací je tedy ve skutečnosti paralelní zpracování dvou takových 16hodnotových vektorů v jednom cyklu.

GPU Nvidia Ampere
GPU Nvidia Ampere (Zdroj: Nvidia)

DLSS 2.1: hraní v 8K s nastavením ultra performance

V prezentaci GeForce RTX 3090 byla avizována možnost hraní v rozlišení 8K (7680 × 4320 bodů). Toto dřív neuvěřitelné rozlišení má 4× více pixelů než samo o sobě náročné 4K, takže bylo celkem jasné, že musí být použitý upscaling DLSS. Nvidia nyní potvrdila, že podpora rozlišení 8K je jedna z novinek v jeho nové nyní uváděné verzi DLSS 2.1 (další její novinkou je možnost použít DLSS ve VR brýlích a také možnost dynamicky měnit faktor škálování, tj. pracovat s dynamickým rozlišením interního vykreslování).

Pro rozlišení 8K je v DLSS 2.1 přidáno nové nastavení „Ultra Performance“, které by mělo být na škále rychlosti a kvality ještě pod nyní nejvýkonnějším nastavením Performance (které škálovalo v obou osách 2×, tedy z 1920 × 1080 na 3840 × 2160 bodů, ze 1280 × 720 na 2560 × 1440 apod.).

Ultra Performance by mělo mít ještě vyšší škálovací faktor, takže při stejném výstupním rozlišení ušetří víc výkonu, ale kvalita bude ještě o něco horší. Nvidia uvádí, že jde o „9× scaling“, takže se asi upscaluje 3× v každé z os.

Při výstupním rozlišení 8K bude tedy GPU reálně vykreslovat jen rozlišení 2560 × 1440 alias 1440p a zbytek je upscaling pomocí neuronové sítě (plus temporální stabilizace/rekonstrukce). Zda bude možné Ultra Performance použít i pro výstup 4K, ještě nevíme. Tam by reálné rozlišení bylo jen 720p.

Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 06 Zdroj: Nvidia

Tip: Nvidia uvádí DLSS 2.0: nová verze AI upscalingu je temporální a nese mnohá vylepšení

V tomto kontextu už je méně překvapivé, že Ampere hraní v rozlišení 8K zvládá (je ovšem možné, že tak vysoký škálovací faktor klade takové zvýšené nároky na výkon tensor jader, které by ještě na Turingu byly přílišné, to samozřejmě nemůžeme vědět).

PCI Express 4.0 zatím pořád není příliš důležitý (jen pro RTX IO)

Zástupce Nvidie byl dál mimo jiné tázán na to, jak důležitá je u karet Ampere podpora PCI Expressu 4.0 (linek s proti PCIe 3.0 dvojnásobnou propustností 2 GB/s) – tedy zda byste případně škodovali, pokud byste pod Ampere posadili desku a CPU podporující jen PCIe 3.0.

Zde to vypadá, že zatím pořád nebude tlak na sběrnici PCI Express příliš velký a tudíž se bez PCIe 4.0 ještě obejdete. PCI Express 4.0 ×16 má pode Nvidie proti PCIe 3.0 ×16 údajně mít pozitivní přínos ve výkonu, ale jen do několika málo procent. Nvidia podotýká, že dopad na výkon má mnoho dalších věcí. A zejména samotná rychlost CPU (tedy například vyšší jednovláknový výkon a nižší latence RAM u nynějších Intelů) bude obvykle mít vyšší dopad na finální FPS než PCI Express 4.0.

Samsung SSD 980 Pro 10
Samsung SSD 980 Pro s rozhraním PCI Express 4.0 má rychlost čtení až 7000 MB/s. Podle Nvidie ideální pro RTX IO (Zdroj: Samsung)

Na druhou stranu je ještě PCI Express 4.0 užitečný nepřímo. A to tehdy, pokud by se ve hře používala funkce RTX IO pro přímé načítání komprimovaných textur do GPU. Zde Nvidia uvádí, že ideální výsledky dají nejnovější SSD založená na PCIe 4.0 ×4 s rychlostí až 7000 MB/s, protože pak se dá textur do GPU protlačit až 2× větší objem než s PCIe 3.0 ×4. Nicméně toto není asi nic, co by vás zabilo. Hry, které by byly kriticky závislé na načítání textur z SSD rychlostí 7 GB/s, asi minimálně v nejbližší době zas tak moc nebude.

Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 16 Zdroj: Nvidia

Ampere pořád podporuje Windows 7, ovladače budou k dispozici

Tato funkce RTX IO je podporována jen na Windows 10 (je zřejmě součástí novějších API). Ale jinak podle Nvidie zdá se bude možné karty Ampere použít i na starých a již nepodporovaných Windows 7 (i když si nemyslíme, že je to moc dobrý nápad…)´. Ovladače pro tento systém tedy zřejmě pořád budou k dispozici. Pro Windows 8.1 ale zdá se ne.

HDMI 2.1 je plnotučné, podporuje maximální možná rozlišení

Jedna z otázek směřovala na schopnosti výstupu HDMI 2.1, který Ampere jako první samostatná grafika poskytuje. Toto rozhraní má specifikovanou maximální hrubou přenosovou rychlost 48 Gb/s, ale některé televize například jeho funkce umí, ale podporují jen nižší datové toky.

Nvidia potvrdila, že Ampere umí skutečně maximálních možných 48 Gb/s (12 Gb/s ve čtyřech linkách) a umí tak kabelem protlačit rozlišení až 8K s HDR (10–12 bitová hloubka barev) při 60 snímcích za vteřinu, byť to již potřebuje kompresi DSC (bez komprese to HDMI 2.1 nedovoluje).

Prezentace k technologii HDMI 2.1
HDMI 2.1 má maximální datový tok po kabelu 48 Gb/s (Zdroj: HDMI Forum)

Proč 10 GB u GeForce RTX 3080?

Na Redditu také padla otázka na to, proč má model RTX 3080 jen 10 GB paměti. Podle Nvidie bylo záměrem vytvořit GPU s relativně dobrou cenou schopné hraní v rozlišení 4K (na nastavení Max), což vyžaduje čip s velmi vysokou hrubou silou. To je ale současně docela drahé (v RTX 3080 je stejné GPU jako v RTX 3090, jen ořezané s možností využít defektní křemík).

Paměť by pro 4K také možná byla lepší větší, ale podle Nvidie bylo právě pro dosažení únosné ceny třeba někde ušetřit a 10 GB je tedy určitý kompromis. Podle Nvidie to tedy byla lepší cesta než slevit na GPU.

Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 45 Zdroj: Nvidia

Galerie: Představení grafik Nvidia GeForce RTX 3090, RTX 3080, RTX 3070 a architektury GPU Ampere

Zdroj: Nvidia via Reddit

Další info k Nvidia Ampere: DLSS upscale na 8K je z 1440p, jak je to s 2×FP32 a jiné detaily
Ohodnoťte tento článek!
4.1 (81.43%) 14 hlas/ů

73 KOMENTÁŘE

  1. Kolik že to stojí 1GB paměti? 10 dolarů? Kdyby vydali RTX3080 o 10 dolarů dražší, nikdo by se nezhroutil a vyhnuli by se zklamání při porovnání s předchozí generací. Ale 10 GB je i tak dost, kde jsou ty doby, kdy jsem hrál první Crysis na vysoké detaily s 8800GTS, co měla 512MB a cítil se jako král… nepadla na Redditu i otázka, jestli to rozjede Crysis?

    • Máš tam chybu ve výpočtu, ne? U 3080 je s ohledem na šířku sběrnice další smysluplná kapacita VRAM 20G, takže by při tvé ceně za 1GB byla dražší o stovku doláčů. Můžeme se sice bavit o tom, jestli v kontextu ceny té karty to je nebo není dramatické zvýšení, ale karta prostě vyjde takhle. A možná se toho srovnání cen i dočkáme, pokud Nvidia z nějakého důvodu usoudí, že vydá 20G 3080ku (Super?).

        • Třeba 😉 Ono taky bude záležet na celkovém výkonu; těm, co si pořídili Radeon VII na hraní (pár takových znám), bylo těch 16GB vícenežméně k haunu. Každopádně, víc paměti vždy vypadá marketingově lépe; pokud se Navi s RDNA2 povede a tipuji, že ta tzv. velká min. těch 16GB mít bude, tak Nvidia určitě zareaguje.

          • Naprosty souhlas. To same jsem se snazil rici i o konzolich – HW specifikace je jedna vec, jak to ve vysledku funguje je vec druha.
            Ja si moc dobre pamatuji na GTX 970 s legendarnimi 3,5GB pameti. Mohu rici, ze nedostatek „chybejicich“ 0,5GB jsem nikdy nepocitil. Na papire to vypadalo spatne, realne vse litalo jak z praku.

        • Až tu bude 16GB NAVI a bude výkonnější na základě paměti, můžeme se bavit. Všichni ti inženýři jsou asi hloupější a o návrhu ví méně než ty, dej si životopis do NV, když seš tak chytrej a víš více.

      • mareknr 4.9.2020 at 7:51
        „Stale je rozdiel v tom, ze na konzole musis, na PC mozes.“
        Mne to FullHD na PS4 a Xboxu teda upscalovane neprijde 😛
        Nicmene ja si myslim, ze Nvidia, jako vzdy, ma velmi dobre zmapovany trh a poptavku a tady vidim jasnou konzistenci treba s novym XSX, ktery ma mit pro hry take 10GB. Navic v XSX ma byt i zminovana alternativa „RTX IO“, takze opet shoda. Nove konzole miri primarne na 4k, RTX 3080 take. A jeste jedna vec – zivotnost konzoli je 5+ let, kdezto RTX budou za cca 2 roky nove, nemluve o Ti/Super variantach, kde muze Nvidia v klidu pridat VRAM, kdyz bude potreba. Takze ja to vidim tak, ze Nvidia vi presne co dela.

          • Nene, to jsem ani nerekl. Ja sam mam 1080Ti a nemam duvod ugradovat.
            Co jsem se snazil sdelit je, ze nove RTX jsou postavene opet na maximalizaci zisku a je to videt i dle specifikaci novych konzoli. Pokud by se ukazalo, ze ty RTXka budou malo vykonne / nedostatecne (coz urcite nebudou), tak maji pripravene Ti edice, potazmo Super edice. Kdyby ani to nestacilo, tak je tu cca 2. lety cyklus, ve kterem to napravi. Toto si konzole nemoho dovolit, tam kdyz nekdo udela chybu, tak je na cca 5 let vystarano bez moznosti napravy.
            Ja si osobne myslim, ze stavajici nabidka RTX bude fungovat dobre a pro koumaky tu bude rozsireni o Ti a Super edice. Proste Nvidia ma zmaknuty trh velmi dobre.

  2. Minule jak tu Hnízdo tu strašil, že nová generace konzolí bude mít málo vram, protože Ampere grafiky budou mít výrazný nárůst, tak jsem mu odpovídal a předpověděl jsem RTX IO. 😉

    Aznohh 20.8.2020 at 19:30
    Pro Vram bude vyhrazeno 10GB, že by to byl nějaký bottleneck vzhledem k výše uvedenému (4,8GB/s SSD + Xbox Velocity Architecture /u PS5 ještě víc) to si opravdu nemyslím. 🙂 Naopak si tipnu, že se možná ukáže nová cesta jak hry programovat, že není neustále nutné bobtnat vram.

    • Tak od Nvidie naprosto logicky tah. Popravde me to ani neprekvapilo, ze maji RTX IO. Navic i s technologickymi inovacemi jako GDDR6X si pekne posiluji pozici na trhu. A kdo zvazoval, jestli zustat na PC, nebo poridit novou konzoli kvuli SSD inovacim, uz myslim zvazovat nebude. Stesti preje pripravenym.

    • azznoha jako vzdy mimo. nakonec se detailnost sceny zastavi na vram, to nejde nastavit ani ssd, ani nicim jinym. propustnost vram je pomalu 100GB/s s neporovnatelne nizsimi latencemi, to zadna sbernice nenahradi, ani PCIE5 s SSD pristi generace. DirectStorage ma odlehcit CPU ktere je v konzolich opet shit. to nema na nejaky skokovy posun v grafice vliv.

      • Z predchoziho clanku:
        „Jmenuje se RTX IO a údajně až 100× vylepšuje propustnost načítání textur z HDD/SSD při 20× snížení zátěže CPU. Na slajdu, ke Nvidia funkci prezentuje, slibuje, že s SSD pro PCI Express 4.0 ×4, které má rychlost čtení 7000 MB/s (taková teprve přicházejí, viz Samsung SSD 980 Pro nebo Sabrent Rocket 4 Plus a jiná SSD s Phisonem E18), má použitá komprese dosáhnout efektivní propustnost až 14 GB/s. Nvidia tvrdí, že dekomprese tolika dat by potřebovala až 24 jader CPU (těžko posoudit, tato čísla raději berte s rezervou…), ale dekomprese v grafice pomocí RTX IO má snížit spotřebu na půl jádra CPU. Důležitý je také ten rozdíl, že data zřejmě pomocí DMA plynou rovnou z SSD do GPU, ne oklikou přes CPU a RAM.“
        Takze hnizdo, urciteeeeee, v Nvidii, AMD, Sony a MS jsou idioti, co nevi, co delaji. Hnizdo jim to vysvetli.

        • panove, nezapomente poradne mazat, at se vam nezadrou. ja naprosto nepochybuji o tom, ze MS vi k cemu DirectStorage slouzi a k cemu ho navrhl. Coz uz se neda rict o vas dvou 🙂

          Jen pripomenu co psal bezzmozek „Minule jak tu Hnízdo tu strašil, že nová generace konzolí bude mít málo vram, protože Ampere grafiky budou mít výrazný nárůst, tak jsem mu odpovídal a předpověděl jsem RTX IO“

          Takze jeste jednou i pro ty trvale vzadu. DirectStorage neslouzi k nejakemu rozsireni male vram. Coz je to o cem jsem mluvil ja. Dokonce i alich si to tam jak jeste odcituje a pak se sam sobe smeje.

          • Ja jsem sice nerekl, ze RTX IO „zvetsuje VRAM“, to jste rekl vy.
            Z abstraktnejsiho pohledu je ale HDD / SDD / obecne uloziste je jakymsi rozsirenim systemove pameti, ktera je sice pomala, ale trvala a mnohem levnejsi. RTX IO teto „pridavne pameti“ umoznuje primy pristup k GPU (a do VRAM), zatimco predtim by data musela nejdrive proteci pres CPU a systemovou pamet (RAM).
            Kdyby teda nebylo potreba tahat hodne dat, tak rozdil pri hrani „akcelerovaneho CDMANa“ bude mezi mezi kartou s RTX IO a bez RTX IO 0 😉

            • RTX IO pokud nekdy bude skutecna alternativa ke konzolim, tak to stejne bude trvat nekolik let. Konzole budu mit vzdycky vyhodu, ze tam je ten HW k dispozici ihned pro vsechny, proto inplementace budou daleko rychlejsi a vyuziti daleko drive nez na PC. S RTX IO bych si hlavu zatim vubec nelamal, mozna tak za 2 roky nejdriv..

        • Mno pěkné, pěkné…. Slušně bez jakýchkoliv invektiv jsem se zeptal v čem jsem tedy mimo. Odpovědí mi je označení „Bezzmozek“. Jen bych rád připomenul, že Hnízdo je ten kdo tu pravidelně brečí adminům, že ho tu ostatní napadají a nadávají tu… každý ať si udělá obrázek sám…

          • Prvnich nekolik minut na googlu:

            Aznohh 15.4.2020 at 14:29. S tím tvým stihomamem by ses měl jít někam léčit Jožko Vladaři. Prej Maudit má v Bohnicích volný lůžko na pokoji.

            Aznohh 18.6.2020 at 19:04
            Pošahanec a jeho dementní rodinka opět v akci. C.k. Idiote – předpověděl jsem ti před pár měsíci, že budeš do půl roku zabanovaný, vzhledem k tomu jak tvoje vyšinuté chování graduje, to možná bude i dřív…

            • Já ale nikde netvrdím a nikdy jsem netvrdil, že nenadávám… nadávám když někdo napadá mě. (to na co jsem v té diskusi reagoval sem pochopitelně nedáš… to by ti nehrálo do karet) Ale zároveň nebrečím pod každým článkem redakci jako ty. Ty jsi pokrytec. Ty jsi mě zde sprostě napadl naprosto bezdůvodně. To každý vidí.

              Mno nic, přizpůsobím se ti a od přístě ti začnu taky nadávat. A pak můžeš opět brečet u admina.

            • Fales? Opakovane jsem psal ze nemam problem se prizpusobit urovni nastavene redakci, pokud s tim nebude nic delat. To ti prijde jako fales? 🙂

              A jak jsem ti bezpoctkrat napsal do strileni se do vlastni bezznohy, vzal sis mne do sve spinave huby prvni, a pak tu sam brecis 🙂 Prej fales 🙂

            • Já si tě vzal do „špinavé huby“ první jo? No to tu každý vidí ty chudáčku. Ty budeš prvotřídně zakomplexovaná osobnost..

            • Zase do vlastní nohy. Mluvíš o komplexech, ale sám mně evidentně nemůžeš dostat z hlavy…

            • Hnizdo, uplakanek..vzdyt jsi to presne ty, kterej tady nekolikrat brecel redakci, jak ti „nadavame“ a „dehonestujeme“.
              Pritom jsi jen normalni ulhany krivak, ktery si nevidi do huby a sam dela to, co jinym vycita..

        • Že s prominutím vstupuji do vašeho přátelského setkání, ale nemluvíte všichni tři o tom samém, každý trochu jinak? A hnízdo nemluvil o *n*astavování vram, ale že se detailnost scény *z*astaví na vram, tedy její velikosti, což asi bude stále platit. Při porovnání interní rychlosti vram a teoretické rtx io/direct storage bych řekl, že kromě ulehčení práce procesoru to nejspíše pomůže při loadu scén a s propady fps.

      • Jaktože nejde když máš teoreticky 100x větší bandwith tím že to cpeš rovnou do grafiky komprimovaně místo do RAM z disku a po dekompresi procesorem to cpeš do VRAM nekomprimovaně?

        Streamování obsahu to radikálně urychlí, tudíž je možnost mít méně paměti ve které se drží textury do foroty – proto je normální že hry sežerou všechnu VRAM, enginy spoléhají na preload věcí do VRAM, když je jí dostatek. Obvykle hry cílí na cca 50-70% VRAM a zbytek používají právě na preload.

        S RTX IO a totožnou featurou konzolí to není třeba preloadovat, protože nahrání až v době potřeby bude násobně rychlejší a nebude třeba na něj čekat tak dlouho.

        Ulehčí to i procesoru, při tom 7GB/s je to až 14 procesorových jader.

  3. Ta úprava pipeline je přesně to, z čeho by měl mít každý fanda hardwaru radost. Tyhle technologické posuny, kdy se jeden výrobce hecne a přijde s novým řešením a posune tak technologii zase o krůček dál…
    Napadlo mě, jestli nemůže mít Ampere díky ‚sharování‘ té druhé FP32/INT32 jednotky o trochu více nevyrovnanější výkon v různých hrách optoti Turingu podle toho, v jakém poměru daný herní engine využívá floating point / celočíselné operace.

    • O tom ale JO přece píše, byť nezmiňuje herní engine, ale úlohy. Tož ta nevyrovnanost výkonu oproti Turingu bude pak předpokládám vypadat tak, že podle použitého herního enginu některé hry pojedou jako na Turingu + výkonnostní posun Ampéry a některé hry pojedou ještě lépe díky dalšímu bonusu z toho „sharování“ té druhé FP32/INT32 jednotky 😉

      • Ano, ale autor psal o výpočetních úlohách obecně. GPU lze používat na spoustu úloh, podle zdejších diskusí tu třeba každý druhý denně kóduje videa 😉 Já to mám jen na hry, takže by mě zajímal pohled nějakého programátora, jestli se to v těch herních enginech může nějak lišit, nebo ten poměr využití FP32/INT32 je všude podobný.

        • Už jsem tu psal, že videa nekóduju, ale rendruju, tak jednou za 14 dní až měsíc 😉 Jinak taky na hry. Ten pohled programátora by mne taky zajímal, třeba by něco mohl vědět mareknr, ten se v tom dost vrtal. Marku, kde jsi?

          • V tomto vam nepomozem. Ja som ku vsetkemu na grafike pristupoval cez DirectX API a neriesil som co bude ake operacie vykonavat. V samotnych strukturach v kode hlavne v shaderoch si vyberas typy dat s ktorymi pracujes. Napriklad ci ide o vektor s float32 atributmi a podobne. Ale riesil som iba jednoduche veci a aj to este v DX11 pred niekolkymi rokmi a iba ako hobby. To by chcelo niekoho kto sa tym zivi, co by povedal ako to vedia lepsie ovplyvnit, aby mali vykon co najlepsie vyvazeny.

            Mozem akurat povedat, ze som prevazne na tie moje veci pouzival FP32. Na suradnice vertexov, vektorov a pod.

        • Ono v grafice dava mnohem vetsi smysl „float“ a to ne jen kvuli vyssi presnosti, alehlavne i rozsahu cisel. Velkou ulohu bude hrat i kompilator, ktery bude instrukce optimalizovat. Otazkou je, jestli se toto da vubec nejak ciste merit, aby pripadny rust vykonu nebyl ovlivnen dalsimi faktory jako treba rychlosti GPU a pameti.

    • Tech cca 50% FPS navrch je opravdu krasnych, pokud je to tedy fer benchmark na stejne sestave. Co je tam ale jine je verze driveru. Sice predpokladam, ze RTX 2080 Ti s nizsi verzi to fps vyrazne neprida, ale nejaky narust by tam byt mohl.
      Upozornil bych i na to, ze ID Soft. ma relativne kvalitni engine a relativne dobry kod. V pripade napr. UBI by ten narust uz nemusel byt takovy, ale na to musime pockat. Hlavne dobre videt nezavisle recenze 🙂

  4. Toto je fakt dobré, vyjadrenie výrobcu a vyjadrenie tomboblogíšku na výsledný výkon nových GK :

    Nvidia: podotýká, že dopad na výkon má mnoho dalších věcí. A zejména samotná rychlost CPU (tedy například vyšší jednovláknový výkon a nižší latence RAM u nynějších Intelů) bude obvykle mít vyšší dopad na finální FPS než PCI Express 4.0.

    tomboblogíšek:
    Mimochodem NVIDIA musela nové grafiky snad poprvé v historii prakticky výhradně testovat na AMD platformě. I prezentace výkonu proběhne na AMD, konkrétně prý ThreadRipper TRX40. Proč tomu tak je, asi není těžké uhodnout. Ano, protože PCIe 4.0, které dnes nabízí výhradně AMD. Intel prostě nemá dnes dostatek výkonu ani použitelnou PCIe 4.0 platformu, kterou by mohl nabídnout.

    • Vladaar, neodkladej odbornou psychiatrickou pomoc, nez ti z tech tvych bludu cvakne uplne 😀
      Mozn se pak jednou probudis a bude z tebe slovensky Kolumbus 😀
      JInak vypadas celkem slusne i posedly, to ti v te makovici cvaka uz ted solidne.

        • Vladar, ty jsi splachovaci jako latrina, takze ono je stejne ve vysledku celkem jedno, co ti clovek napise. Nicmene se opravdu chovas jako psychicky naruseny jedinec, ktery je zraly na navstevu psychiatr, nemluve o tom, ze tady ty diskuse pravidelne uplne zbytecne zasiras a vyvolas flame.

      • tombomino 5.9.2020 at 19:05
        Kdyz odhlednu od utocneho komentare a invektivu v nem, tak si take myslim, ze latence RAM a jednovlaknovy vykon ma vetsi vliv, nec PCIE 4. Takze s tou faktickou casti bych souhlasil. A i s tim, ze TR samozrejme neni idealni CPU na hry. Z pohledu jen ciste vykonu ma intel v teto oblasti prvenstvi.
        Jinak ja jsem mel dnes chvili cas a zkousel jsem si hrat s nastavenim Ryzenu 2700X. Dostal jsem se stabilne na 1,35V pri 4,1GHz. Meril jsem spotrebu a FPS v jedne MMORPG, FPS jsem zlepsil o cca 1%, spotrebu o cca 8%. Jenze v idle (pocitace) je stabilnich 80W, kdezto na auto to skace od 90 treba ke 20. CPU ale vypada, ze idluje, tak nevim.
        Problem je ale pamet, kterou proste neustabilizuji nad 2933MHz. Nemam presne doporuceny typ pro MB a tech 3466MHz nenajede ani do BIOSu.
        Teda alespon u me jsou tyhle hratky s horsim vysledkem nez u predchozich intelu, co jsem mel. 3000 Ryzeny jsou uz snad lepsi, ale nezkousel jsem.

        • Testovat hry s TR je principielne hloupost uz jen z duvodu, ze TR skoro nikdo nema a na hry si ho ani nekupuje. Takze i kdyby TR nekde nahodou daval lepsi vysledek. tak z praktickeho pohledu nema smysl s nim merit.
          Co se tyce pouziti PCie 4.0..to je porad otazka. HWUnboxed na to udelal cele video a dosel k zaveru, ze nejspis prejde na AMD platformu, jelikoz podle jejich odhadu, vychazejiciho z testu, by prirrustky diky PciE 4 mohli vicemene kopirovat to, co ma navrh zase Intel frekvencne, aspon pro vyssi rozliseni. Viz tady..
          https://www.youtube.com/watch?v=PAwIh1nSOQ8

            • Jo, tak to je odpověď hodná Maďara. Měl bys začít psát v rodném jazyce – maďarštnině, vyšlo by to úplně na stejno. Prostě o ničem.
              V odkazu nic o Intelu není, to jen ty dokážeš obrázky upravovat a dávat 5,4GHz all core při 120W celého kompu 😀 No jo, fotoeditor funguje skvěle

            • “ V odkazu nic o Intelu není, to jen ty dokážeš obrázky upravovat “

              Typický popletený Wendak, máš to tam dokonca 2x, na obrázku i v texte….

          • tombomino 5.9.2020 at 21:47
            „prirrustky diky PciE 4 mohli vicemene kopirovat to, co ma navrh zase Intel frekvencne“
            To je sice mozne, ale ty nejvetsi narusty jsou v 1080p, pricemz nova RTX jsou prakticky 1440p+. Na skutecne vysledky chce pockat, asi bude zalezet i na novych Ryzenech, jak moc zvednou vykon a take na odpovedi intelu.
            Dalsi faktor asi bude i jak moc se zacne pouzivat DirectStorage ve hrach, tam by PCIe 4.0 samozrejme pomohlo.
            Jinak ta zminka o TR byla samozrejme reakce na predchozi komentar. „Herni TR“ nedava smysl z mnoha pohledu, nektere jste zminoval.

            • Tak ja jen preprodavam k cemu dosli na HWUnboxed. Od Intelu osobne uz moc necekam, minimlane nez vydaji AlderLake a osobni odhad je, ze pokud se potvrdi drby o Zen3, tak se pristi rok budou hry ve velkem vesele tetovat na AMD platforme 🙂 To tady pak nekteri nerozdychaji 😀

            • Vidíš tombíku, ty si proste chybu neuznáš, na základe dojmov jednej redakcie, ktorá čosi zvažuje naprosto „objektívne“ na blogíšku napíšeš, že všetci recenzenti sú na Intel nasraní a nové karty sa budú testovať na platforme AMD, bo PCIe 4…..Pravda je, že samotná nVidia, ktorej ide o prezentovanie samú seba čo najlepším výkonom použije platformu i9….

              Prestaň brať ostatných ľudí ako menej cennú rasu, prestaň hnusne nadávať, urážať a banovat oponentov, uľaví sa ti….

            • Vladar alias slovensky baca alias jozkopower alias CK Kaspar, tento prispevek nebyl urceny pro Tebe. Je urcen pro mentalne nenarusene jedince bez psychickych problemu a jedince s inteligenci. Neodkladej navstevu psychiatra.

        • Ja mam porad jeste 1700X@3.85. Vic to nema smysl honit, jelikoz to mam v mATX skrini s 12“ chladicem. Pameti mam na 3200 CL14 bez nastavovani sekundarniho casovani, jelikoz vic pro mne nema moc smysl, vzhledem k tomu, ze hraji jen sporadicky a tu kartu to uzivi v pohode.
          Ja to nemam jako „herni rig“ a na encoding bez 4k mi to porad staci. Treba upgradnu az vyleze Vermeer. Uvidim, jestli se mi do toho budou chtit davat penize nebo pojedu radeji na dovolenou 🙂

          • Tak ja to mam na vodnikovi, ale spis me zajimalo o kolik dokazu stahnout spotrebu a teplotu, pri stavajicim vykonu. Trochu se to povedlo, dokonce i se zanedbatelnym narustem vykonu, ale tohle prakticky plati jen pro zatez. Ten AMD auto mode je docela inteligentni, takze v celkove spotrebe (kdyz tam neni zatez na CPU) inzenyry z AMD neprechytracim urcite.
            Ja jsem s upgradem cekal na 8 jadrove APU, ale moje ocekavani byla asi trochu vyssi, nez zverejnilo AMD. Opet ale pockam na vysledky testu a upgrade zvazim potom.

        • Ale Titan končí, byl na okraji zájmu, hráči o něm často ani nevěděli. Teď je součástí RTX řady. Kdyby 3090 nebyl Titan, tak z 3090 dělají flagship když je také nejvýkonnější. Ale flagship je lidová 3080.

          Titany u Pascalu hodně utrpěly na pověsti. Vyšel TitanX, byl nejrychlejší na trhu, lidi to nakoupili a NV jim ukázala fakáče vydáním 1080Ti a druhého fakáče v podobně TitanXp, který zase šel výkonem nad tu 1080Ti. V Turingu už klasický „herní“ Titan nevyšel, a nyní nevyjde taky. Na druhou stranu teď je viditelnější pro hráče. Ti co kupovali Titany na práci budou kupovat i teď, cena šla nádherně dolů o 40%, ale za 1500 dolarů to není nedostižné ani mnohým hráčům, protože 2080Ti se prodávalo poměrně hodně. Rozdíl cen už není tak velký a spousta hráčů na to uslyší.

          • Ano, vypadá to, že uživatel Bedrich v susednom vlákne mal pravdu a samotná nVidia stavia 3090 na pozíciu TITAN. Viacerí Bedricha atakovali, pričom padli aj urážky a nakoniec bude mať ako jediný pravdu….

          • Pokud vím, poslední Titán, co se dal označit za herní, Titán X, vyjel na tehdy rozjíždějící se VR vlně. Následující Titán Xp, V a aktuální RTX už byly/jsou opět pozicovány jako karty pro kreativce a/nebo AI. Pokud tedy Nvidia dokázala zapozicovat Titán v minulosti podle potřeby, 3090 je pozicována jasně jako herní karta (viz stránky Nvidia) s tím, že osloví i kreativce, pak nevidím důvod, proč by nemohl vyjít ampérový Titán. Pořád jsou ve hře spekulace, že GPU GA102 v 3090 není plně aktivní a Micron má v dohledné době přijít s 16Gb GDDR6X moduly, takže titánek s 48GB VRAM a potřební po tom opět skočí, pokud ho plácnou za +/- cenu aktuálního Titána RTX.

          • Komplík opět vymýšlí kraviny. 3090 není náhrada pracovního titanu, stačí si srovnat produktové stránky Nvidie 3090 vs Titan RTX, zařazení atd…
            Netvrď tu lživě, že pracovní Titan nebude, nejsi insider z Nvidie pokud je mi známo. On už i zelený PC Tuning píše…

            „…mám takový pocit, že je to přece jen nástupce RTX 2080 Ti pro hráče, kteří nevědí, co s prachama. Ostatně ani z promovidea od Nvidie nemám dojem, že by šlo o nějaké pracanty nadšené z toho, jak stříhání videa na RTX 3090 odsejpá. Z toho všeho mám pocit, že hlavním důvodem prezentace RTX 3090 coby nástupce Titanů a karty pro profesionály byla snaha Nvidie vyhnout se nářkům, že svůj top model opět zdražuje o pěkných pár tisíc…
            …Kvůli tomu, že RTX 3090 je opravdu extrémní řešení a nedá se předpokládat, že by se prodávala ve velkém, si Nvidia zvolila jako „vlajkovou loď“ nová řady GeForce RTX 3080.“

  5. No RT bude fakt mazec, CDProjekt oznámil remake Witchera 3 na nextgen konzole i PC, dostane lepší kvalitu, včetně ray tracingu. Konečně ta hra bude mít grafiku technicky na úrovni, sice je líbivá ale je na ni vidět že je letitá. Witchera jsem jen párkrát na chvilku zkusil a odložil, tak bude správný čas ho oprášit až vyjde remasterovaná verze 🙂

    Witcher 3 není jedniná hra která dostane vylepšenou grafiku a RT s novými konzolemi

    • Tak pokud u tebe rozhoduje k motivaci hraní tak skvělé hry jako je W3 jen pár grafických pozlátek navíc, tak je mi tě celkem líto.. Jako chtělo by to spíš řešit ty aktuální hry, SotTR slibovali půl roku a už jsem ho mezitím dohrál, Doom Eternal nám opět naslibovali, že bude mít RT podporu a zase zatím nic. Kvůli RT to určitě hrát znova nebudu.

      • A mne paradoxne ten Witcher 3 prijde prave jako docela graficky vymazleny na tehdejsi dobu. Kdyz jsem hral na PS4, tak cutsceny nemely uplne nejhezci modely, ale animace a prostredi bylo udelano pekne.
        Osobne jsem Witchera nedohral, ani me ta hra nijak moc nebere, ale to rozhodne neni problem te hry. Tak me docela prekvapuje, ze si ji nekdo bere do pusy, kdyz tu mame dalsich 1000 her, ktere jsou graficky podobne, ale s vyrazne horsi hratelnosti a pribehem.

        • Asi tak.. grafika W3 byla velice slušná a chválená napříč recenzemi a i teď po těch šesti letech je stále v pohodě. Bohužel jsou tu asi lidé, co studují každý pixel a jak se psovi nelesknou raytracingové koule, tak to nehrají. 🙂