O kolik je Turing lepší než Pascal? Nvidia vydala první benchmarky GeForce RTX 2080

203

I další hardwarová zpráva bude o grafických kartách GeForce RTX, které Nvidia vydala – respektive teprve odhalila, protože reálné vydání bude až 20. září – v pondělí na Gamescomu. Onen měsíc do začátku prodeje byl bohužel spojen i s tím, že firma neposkytla v podstatě žádnou informaci o výkonu karet, ačkoliv spustila předobjednávky. Vzniklo tedy značné neznámo, které teď ale naštěstí bude částečně zredukováno. Nvidia totiž poskytla první konvenční srovnání výkonu pro Turing, byť ne moc podrobné: několik benchmarků GeForce RTX 2080.

Nvidia publikovala slajd, který ukazuje srovnání výkonu GeForce RTX 2080 s modelem GeForce GTX 1080, coby modelovým předchůdcem. I když je třeba připomenout, že ceny se změnily a RTX 2080 jde na trh s cenou 699 $ odpovídající GTX 1080 Ti při jejím vydání. Jako obvykle je potřeba mít na paměti, že čísla jsou filtrována marketingovým oddělením a mohou být vybírána tak, aby vzbudila co nejlepší dojem. Obecně platí, že podobná srovnání nejsou nikdy náhradou za nezávislé testy. Bohužel máme jen grafy a ne přesná čísla, zdá se ale, že by GeForce RTX 2080 mohla proti GTX 1080 přinášet v některých případech až 50 % výkonu navíc, v jiných o něco méně.

132–157 % výkonu GTX 1080 ve vysokých rozlišeních

Pokud neklame měření pixelů, pak by RTX 2080 mohla být o 54 % rychlejší v demu Epic Infiltrator (což není tak docela hra) a o 57 % v Wolfensteinu II a Middle-Earth: Shadow of War (při zapnutém HDR). Další výsledky už jsou pod 50% hranicí. V Mass Effect Andromeda HDR slibuje Nvidia o 46 % lepší výkon, ve Final Fantasy XV o 45 % lepší, v ARK: Survival Evolved o 44 % lepší a v PUBG o 43 % lepší. Hitman 2 HDR má zdá se náskok okolo 41 %.

Rozptyl výsledků uzavírají hry JX3 (JX Online 3?), kde prý má GeForce RTX 2080 dávat zhruba o 36 % lepší výkon, a Shadow of the Tomb Raider. V tom je údajně o 32 % rychlejší než GeForce GTX 1080. Čísla jsou odvozená z grafu, takže počítejte s ním, že by v nich mohla být třeba 1–2% chyba.

Podle Nvidie je GeForce RTX 2080 v rozlišení 4K až 2× výkonnější než GeForce RTX 1080. To ovšem jen s filtrem DLSS, kdy jde vlastně o upscaling z nižšího rozlišení
Podle Nvidie je GeForce RTX 2080 v rozlišení 4K až 2× výkonnější než GeForce GTX 1080. To ovšem jen s filtrem DLSS, kdy jde vlastně o upscaling z nižšího rozlišení

Ve všech těchto hrách by snad mělo jít o srovnání „jablek a jablek“, tedy ne případ, kdy jedna karta by měla výhodu RT cores v ray tracingu, mělo by asi jít o standardní grafiku. A tedy i o nástřel toho, jak se karta bude chovat v nynějších běžných hrách. Ještě je ovšem třeba upozornit, že jde o test v rozlišení 4K, kde může být relativní odstup obou karet o něco odlišný proti 1440p a 1080p. GeForce RTX 2080 má totiž proti modelu GTX 1080 o 40 % vyšší paměťovou propustnost, což by se právě v 4K mělo nejvíc projevovat.

Hrubý výpočetní výkon shaderů vychází podle odhadů ale jen o zhruba 13,5 % vyšší – GPU TU104 má o 15 % více výpočetních jednotek, ale o 1,5 % nižší oficiální takt boostu. Toto asi ukazuje na určitou šanci, že v nižších rozlišeních by rozdíl výkonu mezi oběma kartami mohl být menší než ve 4K. Uvidíme ale až v recenzích.

Až dvojnásobný výkon s DLSS

Jak si můžete všimnout, v grafu jsou dva druhy výsledků. Výše jsme mluvili o těch tmavě zelených, které představují výkon GeForce RTX 2080 Ti při hraní v nativním rozlišení 4K. Světle zelené sloupečky, které ukazují podstatně vyšší výkon, jsou pro hraní s filtrem DLSS. To by ale podle toho, co o něm zatím je známo, mělo znamenat, že se reálně vykresluje na nižším rozlišení a zbytek je jen upscaling v rámci postprocessingu.

Výkon s DLSS je tedy logicky mnohem vyšší a někde dosahuje až víc jak dvojnásobku FPS s kartou GTX 1080. Ale protože jde o reálně nižší rozlišení a horší kvalitu obrazu, nejsou tyto údaje s výkonem GTX 1080 v nativním 4K srovnatelné. DLSS vám však samozřejmě může pomoci, pokud máte 4K displej a potřebujete dohnat snímkovou frekvenci pro plynulý obraz – k tomu by tato funkce samozřejmě měla být užitečná. Nemluvě už třeba o 5K nebo 8K monitorech. Pokud máme správné informace, bylo v tomto režimu, tedy v rozlišení 4K, ale s použitím DLSS a nikoliv v nativní kvalitě, spuštěno také demo Epic Infiltrator, které Nvidia předváděla v pondělí při odhalení Turingů. Ani tam dosažené FPS proto nelze srovnávat s výkonem GPU Pascal v nativním rozlišení 4K.

Nvidia láká na schopnost běžet v rozlišení 4K s více jak 60 snímky za vteřinu. mělo by to asi být právě pomocí DLSS, tedy s nižším reálným rozlišením a upscalingem, trošku jako na konzolích
Nvidia láká na schopnost běžet v rozlišení 4K s více jak 60 snímky za vteřinu. mělo by to asi být právě pomocí DLSS, tedy s nižším reálným rozlišením a upscalingem, trošku jako na konzolích

Tímto bychom tedy měli první jakž tak potvrzený záchytný bod pro zatím dost nepodložené spekulace o tom, jak se zvýšil grafický výkon GPU Turing ve srovnání s Pascalem. Bohužel podobné výsledky zatím Nvidia neposkytla ani pro GeForce RTX 2080 Ti, ani pro nejdostupnější Turing, GeForce RTX 2070. Něco by se asi dalo vycucat z toho, jakou mají tyto karty propustnost a teoretický výpočetní výkon v TFLOPS ve srovnání s modelem 2080. Bohužel je tu ale stále nejistý faktor výkonu nižších versus vyšších rozlišeních, takže stále jsme trochu v mlze.

O kolik je Turing lepší než Pascal? Nvidia vydala první benchmarky GeForce RTX 2080

Ohodnoťte tento článek!
4.3 (86.4%) 25 hlas/ů

203 KOMENTÁŘE

  1. No, celkom „triezvy“ výkon, žiadna bomba ale myslím ani sklamanie…

    …v testoch nVidie to vyšlo na ako to tak počítam 43% náskok (bez započítania Epic Infiltrator) 2080ky oproti GTX1080ke, nesporne si vybrali tie „správne“ hry kde je ten nárast čo najvačší, ergo po odpočítaní tak 5 až 10% vo väčšom merítku hier sa dostávame na +/- 35% náskok čo nás dostáva na úroveň GTX1080Ti resp. nech do 5% náskoku v prospech RTX2080.

    V 4k samozrejme ale úprimne, pri RTX2080ka to už je proste čistá 4k karta resp. na nejaké 165Hz 2560×1440 hranie – nič menej nepripadá v úvahu…

    btw. a podľa tejto logiky by sa myslím mohla RTX2070 vyrovnať GTX1080 že ano…

    • Jak 35%? Hnízdo tvrdí 50% ! Asi myslí, že se Nvidie v grafech naopak podceňuje. 😀
      Neee, máš pravdu předsedo, je to jak píšeš. Jen je vtipné, že když to napíšu já, tak se na mě nevím proč vrhne smečka fanatiků. 😀

      • No, tak sme si rovný a rovnejší nie + na mňa si netrúfnu čo ti poviem 😀

        To že 2080=1080Ti som písal už posledné 2-3mesiace, tak mi to vyšlo no – menší rozdiel sa mi videl chabý, väčší – napr. spomínaných 50% PRIEMERNE zase príliš optimistický.

        …“se na mě nevím proč vrhne smečka fanatiků“ aj by som si tie diskusie prečítal ale hneť 3 diskusie ohľadom nVidie behom 5 dní tu majú 100-101-236 komentov a kto komu čo povedal, no až tak sa vážne nenudím aj keď sú 2 ráno 😀

      • AZNOHU, 45% je blíž 50% než 0-30% které předpovídalí zlé AMD jazyky.
        NVIDIA jede a tohle je další facka přes celou hubu pro všechny AMD ovce!
        45% je prostě 45%, to je prostě polovina, plus mínus! VE 4K!!!!
        Včera AMD ovce psali jak nemůžou hrát na 4K protože málo FPS a teď dostali po čuni! Můžou hrát ve 4K!!!!! Looolllllllllllllllll

        SPANILÁ ZLATÁ JÍZDA NVIDIE POKRAČUJE !!! Takhle se to dělá! Hrubý výkon, k tomu ray korantejn (tracing) a jedéééémmmmm…. A né jak pokakaná uškrcená podvoltovaná Vega s 16GB HBM pamětí k ničemu! Nvidii stačí 8GB GDDR6…. lol AMD pojď…. do rakve

        • Nevím kdo co předpovídá, já souhlasím s Maťkem. Testy jsou vybrané Nvidií, takže reálné je odečíst pár procent, já psal že nárůst bude 35-40%, což je myslím střízlivý odhad. AMD dělá v testech to stejné, není to nic proti NV. Navíc je třeba si uvědomit, že ta 2080FE je už přetaktovaná. Mě ten nárůst stačí, ale kdybych vydělával jen průměrnou mzdu, tak bych si nákup 2080Ti asi rozmyslel.

          Maudit odhadoval 80%, krásně se ukázalo co to je za fanatika. 😀

            • 😀 Že ti nejde čeština, to už víme dlouho. Koukám, že s matematikou to nebude o moc lepší. 😀 😀

            • Drim se format, kterej zvoli Jan Olsan v jednom z nadpisu v clanku, tzn. 100% zaklad, viz.:

              „132–157 % výkonu GTX 1080 ve vysokých rozlišeních“

              Jeste potrebujes vysvetlit neco dalsiho? 😉 Ja vim, ze je to na tebe docela tezky ..

            • @Maudit: Bral by som tých 200% s rezervou. Nie ani tak z hladiska výkonu, ale výsledku. Rád by som najskôr videl ako bude obraz vyzerať po použití DLSS. Potom budeme vedieť lepšie vyhodnotiť či to za to stojí alebo nie (t.j. či radšej nebudeme DLSS vypínať).

            • Nedržíš se ničeho, jasně píšeš o 200% nárůstu a ne 200% výkonu 1080. Pouze se tu slabě snažíš omluvit svoji neznalost práce s procenty.
              A to už vůbec nemluvím o tom, že co píšeš je kravina. 😀

            • Slovickaris. Graf jasne ukazuje az 200% „vykon oproti GTX 1080“, at jsi spokojenej. To je dost brutalni narust 🙂

            • To není žádné slovíčkaření. Matematika je exaktní věda. To, že neznáš učivo prvního stupně ZŠ mnohé napovídá…

              Ty jsi takové dvojče DDemagoga. Jin a jang, jeden vyznává červenou a jeden zelenou. Ten taky vezme graf, kde je 47% a udělá z toho mávnutím kouzelnýho proutku 200%. 😀 😀
              Se tu trhám smíchy, jak ve chvíli kdy i tvůj věrný sluha Hnízdo mluví o 50%, tak přijdeš na scénu ty a začneš tu z rukávu tahat hausnumera. 😀 😀

            • Marek nitra .. DLSS z fullhd udělá 4k bez ztráty kvality … proč bys vypínal ….

            • @gogo1963

              DLSS (Deep Learning Super-Sampling) dela ze 4k vylepsene 4k (temer ekvivalentni super-sampled AA).

            • @Aznoh

              Narozdil od tveho vseobecne omezeno chapani, normalni lidi jeste grafy cist umi, navic korektni grafy (ktere zacinaji na nule), a vidi, ze GTX1080 je zaklad v 1.0 (100%) a RTX 2080 dosahuje az na 2.0 (200%). Nemusim si nic cucat, v tom slajdu to vsechno je uz ted 😀

              Ja vim, ze si vydeptanej z faktu, ze AMD nema vykon (nemela ani pred tim, ale ted se rozdil jeste zvetsuje), nema raytracing a nema ani akceleraci AI. Ale to je realita. Denial te jenom vystresuje, zvedne ti krevni tlak, budes nesoustredenej a v depresi. Je jednodussi se s tim srovnat a budes mit klid 😉 😀

            • „GTX1080 je zaklad v 1.0 (100%) a RTX 2080 dosahuje az na 2.0 (200%)“ Výborně, takže nárůst je kolik procent?
              VS: Předtím jsi psal „Je tam nekolik her kolem 200% narustu“.

              Já tě tu matematiku nakonec doučím Maudite, tvoji rodiče na tebe budou pyšní. 😀 😀

              Ano, jsem AMDčkář, jsem DD, jsem Belka, jsem Tynyt, jsem Babiš, věř tomu, pokud ti to ulehčí život a lépe se sžiješ s tím, že se nenechávám opít rohlíkem a nechovám se jak ovce. 😀 😀

            • @gogo1963: To ešte neviem. Uvidíme či výsledok naozaj bude bez straty kvality. Preto sa teším na testy a ich výsledky..

    • Samozřejmě je to zklamani. Porovnat narust vykonu 2080 vs 1080 je nesmysl. Je potreba porovnavat karty za stejne penize a to je 2080 a 1080ti. A tam je narust vykonu zcela nepatrny a je to obrovské zklamani.

        • No ono je to pro vetsinu lidi prave ta cena / vykon aneb „pred dvema lety jsem si mohl ze sveho platu dovolit X GK, ktere udelaly praci Y. Pokud bych si kupoval stejny pocet GK nyni, o kolik vice prace GK zvladnou? Nebo, pri stejne praci, o kolik mana zaplatim po dvou letech?“. Samozrejme nekdo potrebuje nejnovejsi technologie, na kterych pak vyviji sam, ale to je pak pripad „Potrebuji funkce A a B, ktere GK mi to poskytuje?“. Jinymi slovy, pokud jako hrac zaplatim N% sveho platu predtim i ted, mel by tam byt narust vykonu, jinak je to regrese. Pokud srovnavam neumerne ceny, tak bych pak mel i stejnym zpusobem pocitat vykon, tedy ziskat koeficient z podilu cen a tim pak nasobit podil vykonu – srovnavat jablka s jablky.

          • Ja ta narust vykonu mam. 1080fe za 21400, 2080 za 22000. Za 600 mam rekneme strizlive 30% navic bez pouziti novych technologii s nimi treba 60-100% navic – dlss, k tomu jako bonus rt… jasne muzu mit dneska stejny hruby vykon za trosku nizsi cenu (cca 2000 korun) ale ten new tech, me to laka a rad si priplatim.

  2. Ja to pridam radsi I sem, protoze ocividne ani Jan Olsan netusi, co je DLSS a jak funguje. Rozhodne to neni upscaling. DLSS usetri spoustu vykonu ne tim, ze by se renderovalo v mensim rozliseni a pak upscalovalo, ale tim, ze samplovani, ktere by se normalne delalo na CUDA cores a dalsich castech GPU, se presunulo na TensorCores. Proto se GPU tak ulehci a proto jsou ty karty o tolik rychlejsi. Tak si to v clanku prosim opravte a doporucuju si poradne poslechnout ty pasaze z keynote, ktere tady repostnu:

    „To je tak hezky, jak Aznoh zmatene mumla, kdyz zjistil, ze DLSS je supersampling, coz je presny opak upscalingu. LOL. A prej ze pracuje se SS? Tak podle projevu bych toho cloveka nepustil ani k soustruhu, natoz k cemukoliv technickymu.

    Mimochodem, to rika Huang si ocividne nepochopil. Bohuzel ani Jan Olsan ne, coz me trochu prekvapuje. On mluvi o tom, ze muze vylepsit obrazek s nizsim rozlisenim tim, ze neuralni sit vytrenuje na obrazcich s vyssim rozlisenim. Ale to vubec nemluvi o upscalingu. Naopak, je to prave supersampling. Funguje to tak, ze oni renderuji v jejich datacentru statisice obrazku treba v 8k, 16k (nebo jakemkoliv vetsim rozliseni, Huang tomu v keynote rika super-resolution) a ta neuralni sit se uci nahradit nutnost renderovat obraz ve vetsim rozliseni svoji vlastni logikou, z kontextu obrazku.

    Supersampling totiz funguje tak, ze vyrenderujes obraz v mnohem vetsim rozliseni (delas vic samplu na jeden pixel z puvodniho mensiho rozliseni) a ta data pak pouzijes pro vylepseni kvality toho hrubsiho pixelu v nizsim rozliseni. To je hruba sila. Oni dokazali naucit tu neuralni sit dosahnout podobne kvality jen na zaklade informaci o okoli (ta neuralni sit dokaze rozumnet objektum ve scene, takze identifikuje treba hranu toho kanonu – vsak se taky dnn pouzivaji k pocitacovemu videni) a jeste k tomu z vektoru pohybu objektu ve scene, protoze jde o temporalni neuronovou sit (dokaze zpracovat casove zavisle informace). Ta sama dnn se samozrejme da pouzit I ke zvyseni rozliseni (Huang to tam rika, treba vylepseni CT scanu), kdyz tu extra informaci (extra samply) nepouzijes k antialiasingu, ale primo na vykresleni dalsiho pixelu. Ale v kontextu supersample antialiasingu jsou ty extra samply pouzity k vyhlazovani (proto to tak pojmenovali LOL).

    O tom trenovani na superresolution obrazcich mluvi tady. A ten vyraz „lower resolution“ znamena samozrejme „lower than superresolution“ (radsi predchazim dalsim stupidnim dotazum a komentum). Jasne tam rika, jak tu dnn trenuji v datacentrech.

    https://youtu.be/IG2wVjQUr3c?t=2h18m

    Muzes [Aznohu] byt dal za blbce a tvrdit, ze to je upscaling (nic proti tomu, je to sranda), ale neni to upscaling. Ty antialiased obrazky jsou renderovane nativne ve 4k, ale vyhlazovane jsou skoro jako kdybys na ne pouzil realne supersamply.

    Tady dokonce mluvi Huang o tom, co jsem zminil nahore – ze ten anialiasing je pouzity k doplneni informaci chybejicich z raytracingu (diku cemuz muzou dramaticky omezit pocet potrebnych paprsku):

    „[…] or sometimes the image is not even complete with raytracing […]“

    https://youtu.be/IG2wVjQUr3c?t=2h22m28s

    Pro dnesek koncim. Za takovyhle vzdelavani si normalne necham platit. Tak dneska pro vas zdarma.“

    • Maudit> Samozrejme sa mýliš. Huang jasne pri prezentovaní DLSS hovorí, že sa trénuje na „super-super high-res obrázkoch“ (chápem ako viac než 4k), ale potom, že stačí keď dodáme vytrénovanému systému obrázok s nižším rozlíšením (vyslovene hovorí že napr 1440p) a on nám vyprodukuje „krásny obrázok v 4k“.

      Pri časti o deme Infiltrator spomínal len že je to „krásna kvalita v 4k“, takže v tomto kontexte by som si ten DLSS dovolil nazvať inteligentným upscalingom, hoci sa ti to nemusí páčiť. 😉 Ako to bude v praxi vyzerať, uvidíme neskôr, ale na prezentovaných obrázkoch je jasne vidieť blur na textúrach v porovnaní s 4k TAA, takže za mňa: upscaling ako vyšitý, so stratou detailov ako k tomu patrí, ale … aspoň hrany sú ostré.

      BTW: Neviem prečo ti za taký komentár plný bludov dá niekto „+1“. Ak ti niekto za takýto výkon platí tak dobre pre teba, zle pre neho.

    • Maudite krásně se ukazuje jak jsi totálně zmatený, ale hlavně hloupý. Poučuješ tu o supersamplingu, jehož princip každý zná. Jediné co ti schází je rozum, kdybys ho měl tak by ti došlo, že ta kilometrová báchorka co jsi tu vyplodil je naprostý blábol. Opravdu ti není divné, že s DLSS má 2080 vyšší výkon než bez? 😀 (hint, hint)

      Mě se opravdu líbí jak si tu fanaticky vymýšlíš věci, všechno si to píšu, časem z toho udělám pěkný příspěvek. 😀

    • Maudit – ale ty to máš všechno postavené jenom na domněnce, že když to má v názvu SS, tak to musí být supersampling jako ve smyslu FSAA. Ale to přece vůbec nemusí bejt pravda. „Vzdělávání“ musí být založený na něčem víc než na domněnce, respektive v tomhle případě ještě hůř, na chtění, aby něco bylo tak, jak sis to vysnil.

      A právěže zatím všechno svědčí o opaku. Je to postprocessing, tedy úloha co přidává čas navíc pro každý zpracovávaný frame, přesto je ale výkon vyšší. Z toho vyplývá že evidentně před tím postfiltrem se někde šetří výkonem. Logicky to tedy musí být rendering na nižším rozlišení.

      • Na domence? 🙂 Huang pomerne jasne popisuje tri ruzne schopnosti NGX.

        „Maudit 23.8.2018 at 12:52
        Huang tam popisuje ale cely ten NGX framework (je to za nim na slajdu), ne jen DLSS. Spojujes si nesouvisejici veci. On popisuje vsechny moznosti, ktere ten NGX framework ma, doslova rika, ze muze vylepsit:

        1) „lower resolution image“ – upscaling
        2) „lower quality image“ – DLSS
        3) „sometimes an image not even complete“ – raytracing

        https://www.youtube.com/watch?v=IG2wVjQUr3c&feature=youtu.be&t=2h22m28s

        • Jeste k tomuhle:

          „A právěže zatím všechno svědčí o opaku. Je to postprocessing, tedy úloha co přidává čas navíc pro každý zpracovávaný frame, přesto je ale výkon vyšší. Z toho vyplývá že evidentně před tím postfiltrem se někde šetří výkonem. Logicky to tedy musí být rendering na nižším rozlišení.“

          Zase ta tvoje omezena logika. To uz vypada na schvalnost – bias AMD fanouska – ale rad se budu plest. Pro pocitani DLSS se vyuzivaji Tensor Cores. Jinymi slovy vykon se setri tim, ze co driv musela pocitac CUDA jadra a zbytek cipu, se ted z vetsi casti vyresi na Tensor Cores, ktere jsou na cipu navic ke CUDA cores. To je stejny princip jako s RT, kde se vypocty opet presunuly na specializovane (a na danou vec mnohem efektivnejsi) RT cores.

          Mozna by neskodilo, kdyby sis to dal dohromady s vyjadrenim inzenyra Nvidie o strategii pro Turing na forech 3DCenter (ktere bylo zda se uz odtraneno, puvodni link zde: https://www.forum-3dcenter.org/vbulletin/search.php?searchid=13024487 ), ktery rikal vicemene:
          – jeste jsme neukazali vsechny inovace a technologie Turingu
          – hrube zvysovani vykonu nema budoucnost, musime na to chytreji (=> offloadovani prace na specializovana jadra – Tensor Cores, RT Cores)

          • Možná by Maudite neškodilo, kdybyste tu přestal pleskat nesmysly už jednou provždy a možná raději začal používat tu kouli, co máte na krku. Hlava se ji říká. Ty vaše teorie se super samplingem už ani směšné nejsou. Možná si pusťte ten Keynote ještě tak 2x, 3x a třeba pochopíte..
            @Jan Olšan, pěkné vysvětlení, žel tohle je na Maudita asi stále moc odborné..Docela Vás obdivuji, jakou trollorezistenci mate ;D

            • Jasne, takze technika pojmenovana Deep Learning Super-Sampling, bude delat presny opak super-samplingu (upscaling), to dava smysl 😀 Vubec by to v takovem pripade nepojmenovali Deep Learning Upscaling, to neee! Navic naproti vsemu, co Huang v prezentaci rika. Vy jste dobri strelci. To bude legrace 20. zari, az bude vsechno venku 😀

              Ja vim, narust vykonu RTX 2080 na uroven 200% GTX 1080 musi byt pro vas AMD fans strasidelny, kdyz Vega mela extremni problem vubec se dotahnout na level GTX 1080. Ale hele treba AMD za dva tri roky tenhle perf level dotahne (a vubec se nemusite trapit ted tim, ze Nvidia v te dobe uz bude mnohem dal). 😀

            • Samozřejmě, že by to Huang a jeho markeťáci nepojmenovali jako „upscaling“ 😀 protože by to znělo hrozně a každý by ohrnoval nos.
              Ty jsi na to nakonec došel sám… vidíš že to jde kluku ušatá, nakonec tě tomu logickému myšlení naučíme. 😀

            • Tvrdosijne popirani faktu? Takze jsi uz ve full denial modu. Konecne. Hlavne doma nezmlat manzelku a/nebo deti, oni za to nemuzou. A bacha na myslivce, pena u huby je pro ne jako cervena pro bejky, tak aby te nepifli 😉

            • Chapu te Maudite, predpokladam ze tvoje anglictina je na stejne urovni jako tva cestina a matematika. Ty proste tomu Huangovi nerozumis. 😀😀

        • „To je stejny princip jako s RT, kde se vypocty opet presunuly na specializovane (a na danou vec mnohem efektivnejsi) RT cores.“
          V kontextu toho, že zatím všechna RT dema ukazují jen ve FHD, je to velmi vtipné. 😀

          Honza na to jde naopak nejjednodušší a nejlogičtější cestou, zatímco Maudit čistě vaří z vody.

        • Vždyť to Huang říká úplně přesně ve videu, ještě jde vidět že mu to neleze moc přes jazyk, že nechce narovinu přiznat, že to DLSS je upscalované z nižšího rozlišení, ale nakonec to řekne, že z 1440p udělá 4K. A to přesně zde: https://www.youtube.com/watch?v=IG2wVjQUr3c&feature=youtu.be&t=8405

          Nechápu, že tu Maudit několik dnů mele kraviny pořád dokola. Nebo takhle.. já to chápu, prostě fanboy, kterej žije absolutně mimo realitu, jen v jeho vlhkých snech. Prakticky všechno co tu Maudit napsal za posledních několik dní a co si navymýšlel se ukázalo, že byl jen jeho výmysl. 😀

          Se tu trhám smíchy, proto tyhle diskuse miluju, jak se v nich ti největší fanboys (ať už Nvidie nebo AMD) sami znemožní. 😀 😀 😀

          • Helet to je tvuj problem, ze si tvoje reality distortion field spojuje spolu nesouvisejici casti 😉 Huang v tomhle konkretnim miste popisuje proces trenovani te DNN. Vzdyt to ma I za zady na tom slajdu ..

            Mozna ti to nikdo nerekl, ale neuralni site se nejdriv trenuji (v tomhle pripade v jejich superpocitaci, viz. ten obrazek) a pak se vyhodnocuji (to uz probehne na tvem GPU, u tebe doma) 😉

            • Trénování se provádí naopak na vysokém rozlišení, by the way. 😀

            • Tak konecne jsi to pochopil. Trvalo to jen dva dny LOL

              I kdyz sem ti to teda musel polopaticky vysvetlit nahore:
              „Funguje to tak, ze oni renderuji v jejich datacentru statisice obrazku treba v 8k, 16k (nebo jakemkoliv vetsim rozliseni, Huang tomu v keynote rika super-resolution) a ta neuralni sit se uci nahradit nutnost renderovat obraz ve vetsim rozliseni svoji vlastni logikou, z kontextu obrazku.“

              Ale je to tam. Tak a ted mi schvalne rekni – kdyz pouziju superresolution obrazek jako ground thruth, treba 4k obrazek, jak rika Huang, co bude vychozi obrazek, treba v tech 1440p? To bude lower resolution image. A co se uci ta neuronova sit? Zrekonstruovat tu ground truth, ten 4k obrazek.

              Uci se doplnit chybejici data. A co s tim pak muzes udelat? Zvetsit rozliseni (ale bez AA), nebo ponechat stejne rozliseni a pouzit ty extra samply na super-sampling. Proto se tomu rika Deep Learning Super-sampling. Opet popsano uz nahore 🙂 Ocividne to spousta lidi pochopila, protoze to vysvetleni ted ctu uz I na jinych webech a forech. Jen AMD fans jak ty s tim maji problem. Jako jasne, AMD fans maji obecne nizsi rozlisovaci schopnosti, proto jsou schopni koupit jejich grafiky a CPU. Ale I to uz prestava vysvetlovat ten level tuposti ted 🙂 Bud se prekonavate (ve spatnem slova smyslu) nebo to proste delate na schval – mozna I nevedomky v ramci pudu mentalni sebezachovy. At uz je to jak chce, je sranda to sledovat.

            • Jsi vtipny Maudite. Ja na rozdil od tebe SS pouzivam, raytracingovy engine jsem zkousel programovat v Pascalu pred nejakyma 25 rokama a o deep learningu toho vi vic nez ty snad i Crha. 😀 Jediny kdo se tu dnes neco naucil jsi ty a to zaklady matematiky a prace s procenty. 😀😀

              Obvineni z Amd fanoustvi je uz takova klasika, kdyz fanatikovi dojdou vsechny argumenty a nevi si rady jak dal. Nudna klasika ala Maudit a Hnida. 😀

  3. Pokud jsem prijal rovnici Vega = fail, tak proste musim byt spravedlivy a prijmout ted stejnou rovnici Turing = fail.

    Kdyz porovnam pomer vykon/cena, tak narust vykonu pri stejne cene je +5%.

    To je jako totalni vysmech, to at si NVidia necha od cesty.

    Sorry ale jako na DLSS jsem asi tak stejne zvedavej jako na RT, respektive u toho RT aspon vim, ze ikdyz ted je to o nicem, tak za tri roky to muze bejt paradni, protoze treba uz prvni generace 7nm to treba uz vykonove utahne. Naproti DLSS je dalsi ochcavka o nicem.

      • Cim prosim te? Tema 5% vykonu navic oproti Pascalu?
        Turing je naprosto o nicem, vubec me nenapadlo, ze budu s Pascalem nucen Turing preskocit, protoze proste nedava zadny smysl a holt musim pocket az na 7nm, zamerne nepisu jestli Ampera nebo Navi, to je ve hvezdach, jak na tom kdo bude.

          • Jak nezminil? Vzdyt jsem to psal kolikrat.

            Mame doma dva PC: GTX1070 na jednom ale nechavam prostor klukovi, protoze stejne hraju nektere starsi hry, ktere si dluzim dohrat, treba ted Gothic 3. Takze mi staci GTX570 na druhym PC. Tu potrebuju upgradovat, ale klidne to muzu delat dal tak jako doted, ze kdyz mladej neni doma, tak si muzu dat neco novejsiho a jinak si dal budu hrat ty starsi veci na ktery ta grafika staci.

            • citace redmarxu: “ vubec me nenapadlo, ze budu s Pascalem nucen Turing preskocit“ tohle jsi napsal ty. Takže začínám nabývat dojmů že lžeš, protože pokud má někdo jinej v tvé rodině gtx1070 tak kvůli pascalu ty nemusíš turinga přeskakovat. Pro tebe s nepascalem je turing jasná volba. Teda na hraní gothic3 ne, to máš pravdu, to ti bude stačit i Navi v roce 2021.

            • No prave, na Gothic3 to nepotrebuju a jednohubky typu Far Cry 4 a 5 si muzu zahrat na druhem PC.
              Turinga jsem chtel puvodne kvuli zamyslenemu ELEX a Kingdome Come, ktere jsou na dlouhe hrani a na soucasne grafice uz je nedam. Takze ano, nikdy jsem nerikal nic jineho, Turing byl v planu, ale kdyz vidim, jaka je cena a jak mi to nic neprinese, tak si fakt koupim radsi za par korun tu bazarovou RX580, ty dve hry co bych chtel hrat na to mdam taky a pockam si na drazsi grafiku az na 7nm generaci.

            • A jsme u toho znovu. K cemu nadherna grafika, kdyz hra sama o sobe je nuda plna mikrotransakci…a to jsem clovek, ktery na grafice lpi hodne. Krasny priklad je s VR, 1070 ready, 1080 a vys jeste lepe…ale kde mame VR za normalni ceny, kde jsou ty mixed reality bryle? Kde jsou ty HDR monitory, kvalitni 144+Hz IPS panely…? RT je super a je dobre, ze se technologie uz zkousi v realu, ale dnes je to nepouzitelne a jen to laka ovce zallatit mnohem vic, nez je skutecna cena. HBM pameti, za ktere je zesmesnovana Vega – opravnene, tak to same by ted melo platit na Kozenakuv navysovak ceny v podobe RT a DLSS…

            • @Alich: Aká je skutočná cena za karty obsahujúce RT a Tensor cores? Keďže ide o prvé GPU s týmito technológiami, tak ma úvodné ceny neprekvapujú. Tiež píšeš, že sú tieto technológie nepoužitelné, pričom boli jasne ukázané v prezentáciách čoskoro vydávaných hier. To mi od nepoužitelnosti príde hodne ďaleko. Toto nie sú primitive shaders, ktoré doteraz u Vegy nefungujú. NV okrem podpory v HW totiž pre svoje technológie zaistila aj SW výbavu a použitie. By som skôr povedal, že je to dobrý príklad toho, ako uvádzať technológie do praxe. Nie tak, aby sa roky čakalo kým „dozrejú“ do doby, kedy pôvodné karty, ktoré ich mali využívať sú už zastaralé.

            • Redmarxi tak já už ti vůbec nerozumím, na jednu stranu seš naštvanej že Turinga přeskakuješ a říkáš že to je fail a na druhou stranu ti to vlastně vyhovuje protože ušetříš a později si pořídíš nadupanou vyladěnou 7nm kartu. Víš co, přestaň pár dní psát komenty, vychladni, pusť si třeba Terra Tech nebo Road Redemption a usekávej tam hlavy motorkářům. Až tady budou testy a první vlna nadrženců bude ukojena dodáním karet, pak se rozhoduj. Ano pro ty co mají teď Pascala není důvod přezbrojovat. A taky to nikdo v nVidii netvrdí. Šlápli do hovna a teď čekají jestli to hovno přinese štěstí a nebo bude jen smrdět.
              Ale jen AMD ovce ti rvou do palice nesmysly o tom že nVidia nutí své ovečky při každém vydání kupovat nové karty. není to pravda, stačí ob jedno nebo ob dvě generace a v pohodě si zahraješ. To jen AMD fanATici tě oblbi kecama jak bude Polaris super karta…která zdupe gtx1070 na prach….vlastně né né super karta bude Vega…která zdupe gtx1080 na prach…. jé promiň…super karta bude Navi… která zdupe rtx2080Ti na prach…

  4. Klasicke marketingove zvasty. Je hezke, pokud 2080 ma 50 % vykonu navic oproti 1080, ale pokud 2080 stoji stejne jako drive 1080 Ti, pak je potreba ji porovnavat s touto kartou, nikoliv s 1080. A pak je narust vykonu naprosto tragicky.

    • Každý si nájde porovnanie podľa toho ako chce, aby mu výsledky sedeli. 🙂 Podľa mňa sú obe porovnania v poriadku. Jednak s GTX 1080tkou, pretože je to jej priamy nástupca a aj podľa cenovej hladiny, kľudne s GTX 1080 Ti, keďže je tam nasadená. Skôr si ale myslím, že cena Pascal kariet klesne po vydaní 2000kovej rady.

      • Vzhledem k tomu, že 1080 se da koupit nova za 13500 Kč a 2080, jeji primy nastupce bude stat 20 tisic a vic, tak i v tomto případě povazuji narust vykonu o 30-50 % za naprosto tragicky. Bavime se o novych modelech po dvou letech!

          • hej vysvětli mi to, když jsem kupoval gtx1080 za (v obchodě byl nápis, že jsem to měl levněji ponechme stranou) 22000,-Kč, dneska chtějí za gtx 2080 22.000,-Kč tak mi prosím vysvětli to zdražení, protože ho pořád nechápu.

            • Tvuj problem, zes to kupoval tak draho. Ja kupoval GTX1070 za 12.200 Kc.

            • za 17, ale pššt to se tady nesmí říkat, protože by ovce záviděli. Já nevím čemu se furt divíte, před Vánocmi 2016 byla prostě za 22.000, klidně si to nejděte na heureéce, takže když si dneska půjdu koupit další řadu rtx2080 tak stojí zase 22.000 tak kde je to zdražení, už mi odpověztéééééééééééééééééééé

              KDE JE TO ZDRAŽENÍ??????????? KDEEEEEEEEEEEEEEEEEEEE?????????????????????????????? ubožáci od AMD, rozumíte čeky? Kde je to zdražení????????????? KDEEEEEEEEEEEEEEEEEEEEEEE????????
              za 22.000 +45% výkonu…….. po dvou letech……….

              AMD má Fury +44% Vega a teď…. teď nic… takže jestli bude Navi +44% tak olala tu máme v roce 2020 výkon rtx2070-2080 a to se vyplatí…. s dvouletým zpožděním………………… looooooooooooooollllllllllllllllllllllll

            • Tak porovnavej, ja kupoval pred rokem VEGU64 za 16k se dvema hrama … jaky dostanu navyseni vykonu v procentech kdyz koupim 2080 za 22k coz je 37.5% navyseni ceny?

        • sidey oprava: Vzhledem k tomu, že Vega se da koupit nova za 25500 Kč, jeji primy nastupce neexistuje, tak i v tomto případě povazuji narust vykonu o 0 % za naprosto tragicky. Bavime se o Veze která přišla po dvou letech od vydání gtx1080!

        • Hej. Ale kedy nárast výkonu presne zodpovedal nárastu ceny? Aj v iných odvetviach sa to tak robí. Za každý nadštandard či nízke zlepšenie sa doplácajú riadne sumy. Či už sa to týka topánok, bicyklov alebo komponentov PC. Je to jedno. NV vydala prvé GPU s použitelným RT a s podporou využívania výsledkov oboru strojového učenia, tak si za to necháva zaplatiť. Neverím tomu, že by sa také AMD v jej pozícii chovalo inak.

          • Presne tak jak pises. Nvidia v minulosti mela ceny vzdy dost odpovidajici velikosti a vyrobnimu procesu. Tabulkuuz jsem tu daval. A otazkou je jak zakaznici prijmou, ze velkou cast cipu tvori tranzistory ktere jsou nove a doposud neexistovaly v hernich kartach.
            A je fakt k pobaveni, ze kdyz se jim to hodi, tak vytahnou pomer cena/vykon, alejak pises, je naprosto bezne, ze nekteri vyrobci si nechaji zaplatit. Viz treba Bugatti taky nejezdi 20x rychleji nez nejaka Octavia, ze?

          • Ale tady nejde o to, ze narust vykonu neodpovida narustu ceny. Tohle je karta, co prisla po dvou letech (!) A vysledek je ten, ze ma prakticky stejny vykon za stejnou cenu jako ona karta 2 roky stara (vykon bez RTX). Clovek jaksi ocekava, ze technologickym vyvojem dostane časem za stejnou cenu více vykonu, nebo stejny vykon generace minule za nizsi cenu. A to se tady evidentne nedeje. Takze moje GPU, stara 4 roky zpet, stala necelych 10k, stale zustava na svem miste. Protoze aktuálně neni kam upgradovat.

            • ani nebude, protože za „tvoji“ cenu lepší kartu nikdy nekoupíš …

            • Bohuzel, ale toto je nasledek nekonkurence. Takto doplacime za RTX. Pokud by konkurence byla, tak by nam Nvidia pravdepodobne vydala nove karty s vyrazne vice klasickyma tranzistorama (pravdepodobne uplne bez RT), patricne vyssim vykonem a za ceny predchozi generace. A mozna by RTX vydali jako samostatnou radu vedle nove standardni herni. Kdo vi?

              Pokud nekoho skutecne nezajima RTX, tak at koupi 1080Ti.

            • Mne se libi, ze NV vydala karty s RT. Beru to jako prvni generaci, od ktere toho nejde moc cekat, byt mne zatim ukazky vyjma snad reflexe ve vode, moc nepresvedcily. Pokud narust vykonu karet bude cca 40+% oproti predchozi pro stejny level, tak mi to prijde taky ok. CO mi ale prijde dost blby je, ze podle mne ceny porostou a bude trvat dlouho pokud vubec) nez spadnou aspon na uroven dnesni aktualni generace 1xxx.

            • Co se tyce AMD..tak zbyva doufat, ze vyda aspon pristi rok nejaky rozumny mainstream (pro nas smrtelniky) a snad se 2020 vrati zpatky, tak jak jsme ji znali driv. Finance na to snad uz bude mit lepsi, nez doposud.

            • tombomino: Bohuzel jak pisi, Nvidia si uctuje hlavne podle plochy cipu a vyrobniho procesu (cim mensi tim drazsi). A u techto karet ktere maji hodne velke % pro RT a AI, tak je narust klasickych jednotek daleko mensi nez celkovy narust plochy. Takze ted jen doufejme, ze tyto jednotky budou patricne vyuzite.

            • sidey, ty nic jiného neděláš … nonstop … plácání, kecání, žvanení, blbolení, sem tam nějaký pičung, pak zase žvástání atd atd … a ještě se urážíš … synkuu, nech toho, nic z těchto karet si nekoupíš, jen slintáš a pliváš a chodíš se utěšovat za Stachem … zeptej se mámy, co si o těch tvých „moudrech“ myslí …

  5. Máte tam chybku v textu pod obrázkem:
    Podle Nvidie je GeForce RTX 2080 v rozlišení 4K až 2× výkonnější než GeForce RTX 1080. To ovšem jen s filtrem DLSS, kdy jde vlastně o upscaling z nižšího rozlišení
    RTX 1080 🙂

    • chuch-in, to chce klid AMD ovečko, dodnes nemá Vega ovladače, které by využili všechen její hardware, nvidia tak má dva roky náskok na to vydat ovladače na kterých budou zapnuté všechny hardwareové prvky… až to bude tak výkon bude možná i trojnásobný. Crha napsal trojnásobný? Vážně? To chce klid, schválně přeháním aby jsi byl psychicky připraven.

    • DLSS neni upscaling, ale super-sampling.

      „Powered by Turing’s Tensor Cores, which perform lightning-fast deep neural network processing, GeForce RTX GPUs also support Deep Learning Super-Sampling (DLSS), a technology that applies deep learning and AI to rendering techniques, resulting in crisp, smooth edges on rendered objects in games.“

      https://nvidianews.nvidia.com/news/nvidia-rtx-platform-brings-real-time-ray-tracing-and-ai-to-barrage-of-blockbuster-games

      Mozstvi AMD fans, kteri jsou ochotni se ztrapnit, jen aby mohli sami sebe obelhat o tom, ze se z Vegy nestal low-end, je az zarazejici. Cekal jsem cokoliv, ale tohle je vetsi sranda, nez jsem si dokazal vubec predstavit 😉

        • No vas AMD nohsledy fakt ne 😉 Frustrace je videt na snaze o damage control ze strany AMD fanousku – „raytracing neni o nicem“, „DLSS je upscaling“ LOL Takovy energie tady v postech 😀 😀 😀 😀 😀

          Nedivim se. AMD jeste ani poradne nerovnala vykon, natoz features jako tile-based rendeding nebo ted novejsi Tensor Cores, a uz tu mame dve nove prevratne technologie, a to dokonce v consumer segmentu, s dost velkou podporou vyvojaru (ve srovnani s mnozstvim podpory pri uvedeni jinych technologii), a to jeste od tech nejvetsich – v BF5, UE4, Metru, Tomb Raideru, ..

          Co s tim, co s tim, vid? 😀

  6. Když si řeknu, že 2080 má 15% více CUDA a o 27% rychlejší propustnost paměti, tak mi to příjde jako super výsledek. Ale vyšší cena je prostě znát. Podle mě to udělali proto, aby stále mohli prodávat 10xx řadu za stejný peníz a mohli tak vyprodat sklady za stále stejný zisk.
    Ale zase chápu cenu 2080Ti. Přeci jen ten čip je skoro dvojnásobné velikosti a to musí jít na výrobě znát.

    Každopádně jsem zvědavý, co udělá AMD. Vegu určitě podle mě nezlevní. Na výrobu je až moc drahá. Myslím si, že jí zruší kompletně, zvlášť teď, ,když budou potřebovat HBM na 7nm Vegu. Myslím si, že právě 580 půjde o tu stovku níže. Jsem zvědavý no. 🙂

    • Tak AMD ma urcite nejake skladove zasoby, takze zrusej vyrobu Vegy, ale prodavat ji budou dal. Sice temer nic neprodaji, ale to jim vadit nebude.
      Nechaji v prodeji i vyrobe Polaris, aby nezmizli uplne a holt budou ocekavat dokonceni vyvoje Navi, kterou nahradi jak Polaris, tak Vegu.

    • Vega skončí v propadlišti dějin jako velký fail, alespoň tedy co se desktopové Vega10 týče. AMD tyhle čipy doprodá spíše jako profi karty s pěknou marží a budeme doufat, že nástupce bude alespoň trochu solidně konkurovat NV.

      Co se mobilních verzí týče, tak tak tam si Vegy vedou poměrně slušně. Jak Vega integrovaná v Raven Ridge , tak ještě nevydaná Vega Mobile s HBM. Alespoň v těchto produktech nejde takový propadák jako je desktopová Vega 10. Bohužel, ta nejzajímavější vychytávka Vegy ( Primitive Shader + NGG fast path) není funkční (a podle mě ani nikdy nebude) takže zůstává je schopnost provádět RPM a o něco vyšší základní takty oproti Polarisu…….

      Je otázkou jestli Navi v tomto kontextu něco může změnit, páč pořád půjde v základu o letité GCN, takže tam bych moc naděje neupínal a moc budu doufat, že „next gen“ GPU vrátí zase RTG zase zpátky do hry.

  7. Maly souhrn ke grafum Nvidie:
    – DLSS (Super Sampling = mene kvalitni obraz) musi byt implementovano vyvojari her! Jinak nefunguje! Podobna situace jako s FP16 u AMD VEGA = vice vykonu ale bez implementace vyvojari her nefunkcni.
    – EPIC neni hra ani benchmark
    – Nektere tyto hry jeste ani nevysly
    – Vega ve Wonfsteinovi je plne srovnatelna s RTX2080 FE(OC) za 799 USD
    – Porovnavani s 1080 FE se zakladnim chladicem bez OC za 499 USD
    – Testovano v HDR kde je 1080 znevyhodnena 10% kvuli pametem. Anavic potrebujete HDR monitor pro pouzivani.
    – Cely graf je v 4k coz da 1080 tak maximalne na 30 FPS, tudiz 60 FPS da 2080 jen ve 4 hrach a to jen s DLSS

  8. Pěkné BF1 RT demo https://www.tweaktown.com/news/62907/battlefield-gameplay-video-nvidia-rtx-1080p-60fps/index.html
    BF1 raytracing je to jediné, co mě na RT zaujalo. Ta ukázka z Tomb Raidera byla meh, vypadalo to, že s RTX off vypnuli úplně dynamaické stíny těch dětí se svíčkou či čím, aby byl rozdíl větší. BF1 RT vypadá pěkně, pokud vezmeme v potaz, že na implementaci měli extrémně málo času a že raytracing je ve hrách na začátku, je to slibné.

    Jen mrzí prezentace opět jen ve FullHD, přitom mistr Maudit se zapřísahal, že RTX naopak hry zrychlí. 😀

  9. Vsem, kterym se nezda, ze jsou dnesni grafiky predrazeny, specialne Komplik :)) … v roce 2007 jsem kupoval ATI HD 3870 za nejakych 7500,-kc. V ty dobe to byl High end, nejvyssi model ATI. Nejrychlejsi karta na thu byla GF 8800 Ultra, cca o 25% jeste rychlejsi.
    Ted si to srovnejte s dnesnima cenama, pro jednoduchost, pokud by to byl ekvivalent nove vydane GF 2080..ktera stoji kolik… 22000,-k… coz je temer 3x tolik.
    Cili dnesni nejrychlejsi manstramova karta typu 1060 je cenove na urovni highendu z roku 2007…

      • tady jasně ukázal jak je tombmimino úplně mimo.
        Tady ti posílám z excelu růst kupní síly peněz ~10% ročně.
        2007 7500
        2008 8250
        2009 9075
        2010 9982,5
        2011 10980,75
        2012 12078,825
        2013 13286,70
        2014 14615,37
        2015 16076,91
        2016 17684,60
        2017 19453,06
        2018 21398,37
        2019 23538,21
        2020 25892,03
        Takže letos by za stejně výkonej high-end zaplatil 21.398 na to že je osmej měsíc to krásně sedí na 22.840,-Kč, takže nVidia je ještě o 840kč levnější než ta tvoje AMD tenkrát…. no looooooooooooolllllllllllllllllllllll

    • HD3870 byla vyrabena 55 nm procesem. A zlata era levnych karet bohuzel skoncila s prechodem ze 40 nm na 28 nm.
      HD6970 na 40 nm stala 369 USD ale nastupce HD7970 na 28 nm stala uz 550 USD. U Nvidie byl prechod na 28 nm prakticky stejny skok.
      Takze hlavni pricinou je cena vyrobniho procesu, ktera je porad vyssi a vyssi. Pred 28 nm nebyly ty rozdily v cene procesu tak velike, nebyly takove skoky.

  10. Nechápu jednu věc, proč socky z Diitu v čele s generálem Tynýtem a jeho pravou rukou Tombinem, kteří si maximálně koupí AMD toaletní papír, což je velmi kvalitní výrobek, který nemá konkurenci. Neušpiní, brousí, sám se zničí, tady otravují normální lidi, kteří mají na to aby si koupili normální výrobky a technologické špičky jiného výrobce.

  11. P. Olšan, ještě bych chtěl tímto poděkovat za kvalitní články Vámi sepsané, jste momentálně jediný web kde to má úroveň, i PC Tuning začíná být žumpou, která se řítí do hlubin všech žump.

  12. Moc nerozumím tomu DLSS. Jako, že v NVIDII natrénuje AI nějakou hru, vybleje z toho pár giga nějakejch dat pro tu hru, a ja pak budu hrát v menším rozlišení a tensor core, mi podle těch dat budou rekonstruovat low res render do nějakejch 4K?

    Ze začárku jsem to chápal tak, že misto klasickejch jader budou vyhlazovat tensor cores , podle nějakejch natrénovanejch postupů. To mi přišlocelkem logický a šikovný. Ale ten upscale mi přijde nějakej přitaženej za vlasy.

    • Jestli je to opravdu upscaling, jak si myslím, že je /jak to vypadá, že je, tak je to vcelku jednoduché.

      Nvidia má u sebe na serverech nějaké sady obrazových dat z her, na kterých natrénuje algoritmus pro upscaling (trénuje neuronovou síť s požadavkem, aby z nekvalitní verze udělala obrázek s co nejmenším rozdílem třeba v psnr proti kvalitní verzi), který je na principu neuronové sítě. To v principu není nic zvláštního nebo nového, stejně byl vytvořen a funguje třeba filtr NNEDI3 pro aviysynth (který je i v MadVR pro upscaling videa).

      K uživateli na počítač se distribuuje jenom vytrénovaná síť, což budou řádově jenom megabajty data. Ten algoritmus/neuronová síť se pak natáhnou do grafické karty při hraní a aplikují se jako filtr na každý snímek.

      Natrénované to může být buď obecně na genericky na nějaké sbírce her, ale je tu i možnost, aby Nvidia udělala trénink zvlášť pro jednotlivé hry, třeba významné áčkové tituly. Pak by to u nich mělo mít o něco lepší kvalitu, s trochou štěstí.

      Neuronové sítě jsou takové brute-force black-box řešení na podobné problémy a upscaling jim jde relativně dobře, viz to NNEDI3. Takže to bude lepší, než kdyby se škálovalo nějakou běžnou obyčejnou metodou (lanczos, bicubic). Ale rovnocenné s nativním vykreslováním na tom rozlišení to být nemůže z podstaty věci.

        • Obyčenou metodou myslím klasické převzorkování, které má různé artefakty (blur, aliasing, ringing), ale zachovává taky takový celkem přirozený vzhled, nic moc nezkresluje nebo nedeformuje. Takovéhle převzorkování není dneska moc náročné, ale hlavně taky pro něj možná GPU mají i nějaký speciální blok kvůli přehrávání videa.

          Cokoliv používající „AI“ (tj. ty neuronové sítě) je proti tomu výpočetně o hodně náročnější (počítám, že když se využijí ty tensor jádra, tak by to mohlo být blízké tomu hardwrovému obyčejnému škálování) než běžné převrzorkování. Jako bonus ale je, že takovýhle uspcaler je o dost kreativnější – může ten obraz přiostřovat, odstraňovat ty artefakty z přeškálování a tak podobně. To ale může být i slabina, filtry „vylepšující“ obraz se kolikrát zvrhnou a naopak někde věci kazí, zvlášť když je to interpolátor, který se snaží „uhodnout“ pixely, které ve vstupu nejsou…

          Můžete třeba zkusit tohle, to je taky IIRC takový zvětšovač obrázků na bázi předtrénované neuronové sítě: http://waifu2x.udp.jp/
          (Ale samozřejmě natrénovaný pro jiné věci, takže se to bude chovat úplně jinak, než ten filtr Nvidie). Můžete to skusit srovnat s tím, jak vypadá obrázek zvětšený 2X běžnou metodou. Z tohohle wifu2x vyleze něco ostřejšího, vyčištěného, ale také jsou v tom ty menší detaily někdy dost podeformované. Ta neuronová síť prostě dokáže udělat mnohem víc, než jen to obyčejné přeškálování.
          NNEDI3 v MadVR iirc až takové psí kusy nedělá, ale třeba u obrázku s trávou se taky může projevit ten sklon k deformování.

      • No nějak mi nesedí to udělat z 1 pixelu 4 , par megovej neural snapshot podle mne nemá šanci to dopočítat bez nějakýho odpovídajícího katalogu. Něco jinyho je prostě nějakej generickej deinterlacer, kterej ty pixle taky nevykoumá jen to adaptivně dopočítá podle nějakýho statistickýho naučení z různejch variant různě širokýho okolí.
        Když použiju mip textur odpovídající 1080 ve 4K , tak je to prostě znát. ALe uvidíme ve výsledku co to opravdu bude a jak to bude fungovat.