
I další hardwarová zpráva bude o grafických kartách GeForce RTX, které Nvidia vydala – respektive teprve odhalila, protože reálné vydání bude až 20. září – v pondělí na Gamescomu. Onen měsíc do začátku prodeje byl bohužel spojen i s tím, že firma neposkytla v podstatě žádnou informaci o výkonu karet, ačkoliv spustila předobjednávky. Vzniklo tedy značné neznámo, které teď ale naštěstí bude částečně zredukováno. Nvidia totiž poskytla první konvenční srovnání výkonu pro Turing, byť ne moc podrobné: několik benchmarků GeForce RTX 2080.
Nvidia publikovala slajd, který ukazuje srovnání výkonu GeForce RTX 2080 s modelem GeForce GTX 1080, coby modelovým předchůdcem. I když je třeba připomenout, že ceny se změnily a RTX 2080 jde na trh s cenou 699 $ odpovídající GTX 1080 Ti při jejím vydání. Jako obvykle je potřeba mít na paměti, že čísla jsou filtrována marketingovým oddělením a mohou být vybírána tak, aby vzbudila co nejlepší dojem. Obecně platí, že podobná srovnání nejsou nikdy náhradou za nezávislé testy. Bohužel máme jen grafy a ne přesná čísla, zdá se ale, že by GeForce RTX 2080 mohla proti GTX 1080 přinášet v některých případech až 50 % výkonu navíc, v jiných o něco méně.
132–157 % výkonu GTX 1080 ve vysokých rozlišeních
Pokud neklame měření pixelů, pak by RTX 2080 mohla být o 54 % rychlejší v demu Epic Infiltrator (což není tak docela hra) a o 57 % v Wolfensteinu II a Middle-Earth: Shadow of War (při zapnutém HDR). Další výsledky už jsou pod 50% hranicí. V Mass Effect Andromeda HDR slibuje Nvidia o 46 % lepší výkon, ve Final Fantasy XV o 45 % lepší, v ARK: Survival Evolved o 44 % lepší a v PUBG o 43 % lepší. Hitman 2 HDR má zdá se náskok okolo 41 %.
Rozptyl výsledků uzavírají hry JX3 (JX Online 3?), kde prý má GeForce RTX 2080 dávat zhruba o 36 % lepší výkon, a Shadow of the Tomb Raider. V tom je údajně o 32 % rychlejší než GeForce GTX 1080. Čísla jsou odvozená z grafu, takže počítejte s ním, že by v nich mohla být třeba 1–2% chyba.

Ve všech těchto hrách by snad mělo jít o srovnání „jablek a jablek“, tedy ne případ, kdy jedna karta by měla výhodu RT cores v ray tracingu, mělo by asi jít o standardní grafiku. A tedy i o nástřel toho, jak se karta bude chovat v nynějších běžných hrách. Ještě je ovšem třeba upozornit, že jde o test v rozlišení 4K, kde může být relativní odstup obou karet o něco odlišný proti 1440p a 1080p. GeForce RTX 2080 má totiž proti modelu GTX 1080 o 40 % vyšší paměťovou propustnost, což by se právě v 4K mělo nejvíc projevovat.
Hrubý výpočetní výkon shaderů vychází podle odhadů ale jen o zhruba 13,5 % vyšší – GPU TU104 má o 15 % více výpočetních jednotek, ale o 1,5 % nižší oficiální takt boostu. Toto asi ukazuje na určitou šanci, že v nižších rozlišeních by rozdíl výkonu mezi oběma kartami mohl být menší než ve 4K. Uvidíme ale až v recenzích.
Až dvojnásobný výkon s DLSS
Jak si můžete všimnout, v grafu jsou dva druhy výsledků. Výše jsme mluvili o těch tmavě zelených, které představují výkon GeForce RTX 2080 Ti při hraní v nativním rozlišení 4K. Světle zelené sloupečky, které ukazují podstatně vyšší výkon, jsou pro hraní s filtrem DLSS. To by ale podle toho, co o něm zatím je známo, mělo znamenat, že se reálně vykresluje na nižším rozlišení a zbytek je jen upscaling v rámci postprocessingu.
Výkon s DLSS je tedy logicky mnohem vyšší a někde dosahuje až víc jak dvojnásobku FPS s kartou GTX 1080. Ale protože jde o reálně nižší rozlišení a horší kvalitu obrazu, nejsou tyto údaje s výkonem GTX 1080 v nativním 4K srovnatelné. DLSS vám však samozřejmě může pomoci, pokud máte 4K displej a potřebujete dohnat snímkovou frekvenci pro plynulý obraz – k tomu by tato funkce samozřejmě měla být užitečná. Nemluvě už třeba o 5K nebo 8K monitorech. Pokud máme správné informace, bylo v tomto režimu, tedy v rozlišení 4K, ale s použitím DLSS a nikoliv v nativní kvalitě, spuštěno také demo Epic Infiltrator, které Nvidia předváděla v pondělí při odhalení Turingů. Ani tam dosažené FPS proto nelze srovnávat s výkonem GPU Pascal v nativním rozlišení 4K.

Tímto bychom tedy měli první jakž tak potvrzený záchytný bod pro zatím dost nepodložené spekulace o tom, jak se zvýšil grafický výkon GPU Turing ve srovnání s Pascalem. Bohužel podobné výsledky zatím Nvidia neposkytla ani pro GeForce RTX 2080 Ti, ani pro nejdostupnější Turing, GeForce RTX 2070. Něco by se asi dalo vycucat z toho, jakou mají tyto karty propustnost a teoretický výpočetní výkon v TFLOPS ve srovnání s modelem 2080. Bohužel je tu ale stále nejistý faktor výkonu nižších versus vyšších rozlišeních, takže stále jsme trochu v mlze.
No, celkom „triezvy“ výkon, žiadna bomba ale myslím ani sklamanie…
…v testoch nVidie to vyšlo na ako to tak počítam 43% náskok (bez započítania Epic Infiltrator) 2080ky oproti GTX1080ke, nesporne si vybrali tie „správne“ hry kde je ten nárast čo najvačší, ergo po odpočítaní tak 5 až 10% vo väčšom merítku hier sa dostávame na +/- 35% náskok čo nás dostáva na úroveň GTX1080Ti resp. nech do 5% náskoku v prospech RTX2080.
V 4k samozrejme ale úprimne, pri RTX2080ka to už je proste čistá 4k karta resp. na nejaké 165Hz 2560×1440 hranie – nič menej nepripadá v úvahu…
btw. a podľa tejto logiky by sa myslím mohla RTX2070 vyrovnať GTX1080 že ano…
Jak 35%? Hnízdo tvrdí 50% ! Asi myslí, že se Nvidie v grafech naopak podceňuje. 😀
Neee, máš pravdu předsedo, je to jak píšeš. Jen je vtipné, že když to napíšu já, tak se na mě nevím proč vrhne smečka fanatiků. 😀
No, tak sme si rovný a rovnejší nie + na mňa si netrúfnu čo ti poviem 😀
To že 2080=1080Ti som písal už posledné 2-3mesiace, tak mi to vyšlo no – menší rozdiel sa mi videl chabý, väčší – napr. spomínaných 50% PRIEMERNE zase príliš optimistický.
…“se na mě nevím proč vrhne smečka fanatiků“ aj by som si tie diskusie prečítal ale hneť 3 diskusie ohľadom nVidie behom 5 dní tu majú 100-101-236 komentov a kto komu čo povedal, no až tak sa vážne nenudím aj keď sú 2 ráno 😀
Je to zabava Matko 😉 Sledovat, kolik redaktoru a diskuteru na tomhle ukazuje, ze jsou vlastne jen copycats, ktere berou texty z bodu A a tupe je prepisuji do bodu B, aniz by chapali, jak dana technologie funguje, to by mi vydrzelo asi na dlouho 😉 Skoda, ze neni vic casu. Stach i Soucek (Aznoh) uz ocividne breci nad prezentovanyma benchmarkama, protoze zadna pohroma ve starych hrach se nekona + v novych hrat RT a DLSS .. to musi bejt hodne horka pilule pro ne na sploknuti.
Ja tu novu radu 2000 nevidim tak ružovo, hlavne ked vidim ceni 2080 okolo 900€, bola by to bomba keby tolko stala 2080Ti lenže ta soji okolo 1300€. Ruku na srdce narast v hrach nebude žiaden zazrak ked porovnam v hrach 1070 oproti 1080Ti je to v priemere len 28% aj ked vypočetny potencial je vačši lenze hry su hry. Aj ked teraz to je velke hipe a marketing, ale ked pride na hry tak GTX1080Ti za 500€ nebude až tak velmi stracať na RTX2080Ti za 1300€…
http://gpu.userbenchmark.com/Compare/Nvidia-GTX-1070-vs-Nvidia-GTX-1080-Ti/3609vs3918
Lool Maudite, tady myslím brečíš jedině ty, který jsi čekal nesmyslné 80% zvýšení výkonu oproti Pascalu. 😀 😀 https://www.cnews.cz/unik-nvidia-geforce-gtx-1180-turing-referencni-pcb-virtuallink/#comment-191441
😀
jen mu naloz azznoho, dej mu!
az se ukaze ze ma maudit nakonec pravdu, tak at to stoji za to! 😀
ROFL fanatici to nevzdávají. 😀 Bojuj Hnízdo, bojuj! 😀
Ja mam „vybojovano“, predobjednano, uz jsem jen bavim nad tvymi zmirajicimi vykriky a kvikotem 😀
Bavíš se tím, že zoufale prohledáváš internet, jestli se náhodou nesplní těch vašich vymodlených 80% nad Pascal. Je mi to jasné. 😀
No Aznohu ja tam vidim I vic nez 200% (coz jsou presne ty informace, ktere jsem mel) 😉
Že ty tam něco takovýho vidíš, to mě nepřekvapuje. 😀 😀 😀
@hnizdo: Ktorú si si objednal? Najvyššiu Ti verziu?
2080Ti MSI Trio, to si náhodou pamatuju, protože to je jediná věc na které se s Hnízdem shodnu. 😀
AZNOHU, 45% je blíž 50% než 0-30% které předpovídalí zlé AMD jazyky.
NVIDIA jede a tohle je další facka přes celou hubu pro všechny AMD ovce!
45% je prostě 45%, to je prostě polovina, plus mínus! VE 4K!!!!
Včera AMD ovce psali jak nemůžou hrát na 4K protože málo FPS a teď dostali po čuni! Můžou hrát ve 4K!!!!! Looolllllllllllllllll
SPANILÁ ZLATÁ JÍZDA NVIDIE POKRAČUJE !!! Takhle se to dělá! Hrubý výkon, k tomu ray korantejn (tracing) a jedéééémmmmm…. A né jak pokakaná uškrcená podvoltovaná Vega s 16GB HBM pamětí k ničemu! Nvidii stačí 8GB GDDR6…. lol AMD pojď…. do rakve
Nevím kdo co předpovídá, já souhlasím s Maťkem. Testy jsou vybrané Nvidií, takže reálné je odečíst pár procent, já psal že nárůst bude 35-40%, což je myslím střízlivý odhad. AMD dělá v testech to stejné, není to nic proti NV. Navíc je třeba si uvědomit, že ta 2080FE je už přetaktovaná. Mě ten nárůst stačí, ale kdybych vydělával jen průměrnou mzdu, tak bych si nákup 2080Ti asi rozmyslel.
Maudit odhadoval 80%, krásně se ukázalo co to je za fanatika. 😀
Je tam nekolik her kolem 200% narustu 🙂
😀 Že ti nejde čeština, to už víme dlouho. Koukám, že s matematikou to nebude o moc lepší. 😀 😀
Drim se format, kterej zvoli Jan Olsan v jednom z nadpisu v clanku, tzn. 100% zaklad, viz.:
„132–157 % výkonu GTX 1080 ve vysokých rozlišeních“
Jeste potrebujes vysvetlit neco dalsiho? 😉 Ja vim, ze je to na tebe docela tezky ..
@Maudit: Bral by som tých 200% s rezervou. Nie ani tak z hladiska výkonu, ale výsledku. Rád by som najskôr videl ako bude obraz vyzerať po použití DLSS. Potom budeme vedieť lepšie vyhodnotiť či to za to stojí alebo nie (t.j. či radšej nebudeme DLSS vypínať).
Nedržíš se ničeho, jasně píšeš o 200% nárůstu a ne 200% výkonu 1080. Pouze se tu slabě snažíš omluvit svoji neznalost práce s procenty.
A to už vůbec nemluvím o tom, že co píšeš je kravina. 😀
Slovickaris. Graf jasne ukazuje az 200% „vykon oproti GTX 1080“, at jsi spokojenej. To je dost brutalni narust 🙂
To není žádné slovíčkaření. Matematika je exaktní věda. To, že neznáš učivo prvního stupně ZŠ mnohé napovídá…
Ty jsi takové dvojče DDemagoga. Jin a jang, jeden vyznává červenou a jeden zelenou. Ten taky vezme graf, kde je 47% a udělá z toho mávnutím kouzelnýho proutku 200%. 😀 😀
Se tu trhám smíchy, jak ve chvíli kdy i tvůj věrný sluha Hnízdo mluví o 50%, tak přijdeš na scénu ty a začneš tu z rukávu tahat hausnumera. 😀 😀
Marek nitra .. DLSS z fullhd udělá 4k bez ztráty kvality … proč bys vypínal ….
@gogo1963
DLSS (Deep Learning Super-Sampling) dela ze 4k vylepsene 4k (temer ekvivalentni super-sampled AA).
@Aznoh
Narozdil od tveho vseobecne omezeno chapani, normalni lidi jeste grafy cist umi, navic korektni grafy (ktere zacinaji na nule), a vidi, ze GTX1080 je zaklad v 1.0 (100%) a RTX 2080 dosahuje az na 2.0 (200%). Nemusim si nic cucat, v tom slajdu to vsechno je uz ted 😀
Ja vim, ze si vydeptanej z faktu, ze AMD nema vykon (nemela ani pred tim, ale ted se rozdil jeste zvetsuje), nema raytracing a nema ani akceleraci AI. Ale to je realita. Denial te jenom vystresuje, zvedne ti krevni tlak, budes nesoustredenej a v depresi. Je jednodussi se s tim srovnat a budes mit klid 😉 😀
„GTX1080 je zaklad v 1.0 (100%) a RTX 2080 dosahuje az na 2.0 (200%)“ Výborně, takže nárůst je kolik procent?
VS: Předtím jsi psal „Je tam nekolik her kolem 200% narustu“.
Já tě tu matematiku nakonec doučím Maudite, tvoji rodiče na tebe budou pyšní. 😀 😀
Ano, jsem AMDčkář, jsem DD, jsem Belka, jsem Tynyt, jsem Babiš, věř tomu, pokud ti to ulehčí život a lépe se sžiješ s tím, že se nenechávám opít rohlíkem a nechovám se jak ovce. 😀 😀
@gogo1963: To ešte neviem. Uvidíme či výsledok naozaj bude bez straty kvality. Preto sa teším na testy a ich výsledky..
Aznohh 23.8.2018 at 1:38 „Jak 35%? Hnízdo tvrdí 50% “ Jak se odvazujes pochybovat o slovech vrchniho tydiita? Jasne rika 33-59%, prumerne 47%! Duse hrisna!
ale nenech se omezovat, dle HWcanucks te ceka seredny prekvapeni, tak at to ma grady!
https://uploads.disquscdn.com/images/6232c4d5b5056e06ab6d0b2da729abb11e1fa0b32bc853e7d8db14b6909d5af5.png
Ty jsi tydiit? Ok, budu tě tak teda oslovovat. 😀
Takovou, ehm, cest nemohu prijmout!
https://diit.cz/clanek/geforce-rtx-2080-vykon
😀
Nečtu jiné weby, není čas. Navíc tady mezi ovcemi se nejvíc bavím. 😀
svůj k svému … pokud jiné nečteš, jak můžeš vědět, které jsou ty ovce 😀
Až (pokud) vyjde něco od AMD, tak naběhnu na DD a začnu dělat paseku tam. 😀 😀
😀 😀
Presne takovy info mam uz delsi dobu. Stejne jako rikaji HardwareCanucks, „I think A LOT of people in these comments will be eating their words in a few weeks“. Bude to legrace.
2070 muze dorovnat a nekde prekonat 1080ti. To byla i posledni huangova veta – je rychlejsi nez titanx. Samo v cherry pick, podobne jako 1070 jen nekde predstihla titanx(maxwell)
Jestli nemyslel s DLSS.
no … i kdyby myslel …
Samozřejmě je to zklamani. Porovnat narust vykonu 2080 vs 1080 je nesmysl. Je potreba porovnavat karty za stejne penize a to je 2080 a 1080ti. A tam je narust vykonu zcela nepatrny a je to obrovské zklamani.
To zalezi co porovnavam pokud cena/vykon, ano souhkas, minimalni posun bez pouziti novych techu, ty jsou bonus a je to i dalsich 50% vykonu navic.
Pokud srovnavam generacni rozdil, nesouhlas.
No ono je to pro vetsinu lidi prave ta cena / vykon aneb „pred dvema lety jsem si mohl ze sveho platu dovolit X GK, ktere udelaly praci Y. Pokud bych si kupoval stejny pocet GK nyni, o kolik vice prace GK zvladnou? Nebo, pri stejne praci, o kolik mana zaplatim po dvou letech?“. Samozrejme nekdo potrebuje nejnovejsi technologie, na kterych pak vyviji sam, ale to je pak pripad „Potrebuji funkce A a B, ktere GK mi to poskytuje?“. Jinymi slovy, pokud jako hrac zaplatim N% sveho platu predtim i ted, mel by tam byt narust vykonu, jinak je to regrese. Pokud srovnavam neumerne ceny, tak bych pak mel i stejnym zpusobem pocitat vykon, tedy ziskat koeficient z podilu cen a tim pak nasobit podil vykonu – srovnavat jablka s jablky.
Ja ta narust vykonu mam. 1080fe za 21400, 2080 za 22000. Za 600 mam rekneme strizlive 30% navic bez pouziti novych technologii s nimi treba 60-100% navic – dlss, k tomu jako bonus rt… jasne muzu mit dneska stejny hruby vykon za trosku nizsi cenu (cca 2000 korun) ale ten new tech, me to laka a rad si priplatim.
Ja to pridam radsi I sem, protoze ocividne ani Jan Olsan netusi, co je DLSS a jak funguje. Rozhodne to neni upscaling. DLSS usetri spoustu vykonu ne tim, ze by se renderovalo v mensim rozliseni a pak upscalovalo, ale tim, ze samplovani, ktere by se normalne delalo na CUDA cores a dalsich castech GPU, se presunulo na TensorCores. Proto se GPU tak ulehci a proto jsou ty karty o tolik rychlejsi. Tak si to v clanku prosim opravte a doporucuju si poradne poslechnout ty pasaze z keynote, ktere tady repostnu:
„To je tak hezky, jak Aznoh zmatene mumla, kdyz zjistil, ze DLSS je supersampling, coz je presny opak upscalingu. LOL. A prej ze pracuje se SS? Tak podle projevu bych toho cloveka nepustil ani k soustruhu, natoz k cemukoliv technickymu.
Mimochodem, to rika Huang si ocividne nepochopil. Bohuzel ani Jan Olsan ne, coz me trochu prekvapuje. On mluvi o tom, ze muze vylepsit obrazek s nizsim rozlisenim tim, ze neuralni sit vytrenuje na obrazcich s vyssim rozlisenim. Ale to vubec nemluvi o upscalingu. Naopak, je to prave supersampling. Funguje to tak, ze oni renderuji v jejich datacentru statisice obrazku treba v 8k, 16k (nebo jakemkoliv vetsim rozliseni, Huang tomu v keynote rika super-resolution) a ta neuralni sit se uci nahradit nutnost renderovat obraz ve vetsim rozliseni svoji vlastni logikou, z kontextu obrazku.
Supersampling totiz funguje tak, ze vyrenderujes obraz v mnohem vetsim rozliseni (delas vic samplu na jeden pixel z puvodniho mensiho rozliseni) a ta data pak pouzijes pro vylepseni kvality toho hrubsiho pixelu v nizsim rozliseni. To je hruba sila. Oni dokazali naucit tu neuralni sit dosahnout podobne kvality jen na zaklade informaci o okoli (ta neuralni sit dokaze rozumnet objektum ve scene, takze identifikuje treba hranu toho kanonu – vsak se taky dnn pouzivaji k pocitacovemu videni) a jeste k tomu z vektoru pohybu objektu ve scene, protoze jde o temporalni neuronovou sit (dokaze zpracovat casove zavisle informace). Ta sama dnn se samozrejme da pouzit I ke zvyseni rozliseni (Huang to tam rika, treba vylepseni CT scanu), kdyz tu extra informaci (extra samply) nepouzijes k antialiasingu, ale primo na vykresleni dalsiho pixelu. Ale v kontextu supersample antialiasingu jsou ty extra samply pouzity k vyhlazovani (proto to tak pojmenovali LOL).
O tom trenovani na superresolution obrazcich mluvi tady. A ten vyraz „lower resolution“ znamena samozrejme „lower than superresolution“ (radsi predchazim dalsim stupidnim dotazum a komentum). Jasne tam rika, jak tu dnn trenuji v datacentrech.
https://youtu.be/IG2wVjQUr3c?t=2h18m
Muzes [Aznohu] byt dal za blbce a tvrdit, ze to je upscaling (nic proti tomu, je to sranda), ale neni to upscaling. Ty antialiased obrazky jsou renderovane nativne ve 4k, ale vyhlazovane jsou skoro jako kdybys na ne pouzil realne supersamply.
Tady dokonce mluvi Huang o tom, co jsem zminil nahore – ze ten anialiasing je pouzity k doplneni informaci chybejicich z raytracingu (diku cemuz muzou dramaticky omezit pocet potrebnych paprsku):
„[…] or sometimes the image is not even complete with raytracing […]“
https://youtu.be/IG2wVjQUr3c?t=2h22m28s
Pro dnesek koncim. Za takovyhle vzdelavani si normalne necham platit. Tak dneska pro vas zdarma.“
+1
Tak vysvetleni proc je to o nicem jsi podal spravne, jen ten zaver je blbe.
Hezkej pokus.
Maudit> Samozrejme sa mýliš. Huang jasne pri prezentovaní DLSS hovorí, že sa trénuje na „super-super high-res obrázkoch“ (chápem ako viac než 4k), ale potom, že stačí keď dodáme vytrénovanému systému obrázok s nižším rozlíšením (vyslovene hovorí že napr 1440p) a on nám vyprodukuje „krásny obrázok v 4k“.
Pri časti o deme Infiltrator spomínal len že je to „krásna kvalita v 4k“, takže v tomto kontexte by som si ten DLSS dovolil nazvať inteligentným upscalingom, hoci sa ti to nemusí páčiť. 😉 Ako to bude v praxi vyzerať, uvidíme neskôr, ale na prezentovaných obrázkoch je jasne vidieť blur na textúrach v porovnaní s 4k TAA, takže za mňa: upscaling ako vyšitý, so stratou detailov ako k tomu patrí, ale … aspoň hrany sú ostré.
BTW: Neviem prečo ti za taký komentár plný bludov dá niekto „+1“. Ak ti niekto za takýto výkon platí tak dobre pre teba, zle pre neho.
Huang tam popisuje ale cely ten NGX framework (je to za nim na slajdu), ne jen DLSS. Spojujes si nesouvisejici veci. On popisuje vsechny moznosti, ktere ten NGX framework ma, doslova rika, ze muze vylepsit:
1) „lower resolution image“ – upscaling
2) „lower quality image“ – DLSS
3) „sometimes an image not even complete“ – raytracing
https://www.youtube.com/watch?v=IG2wVjQUr3c&feature=youtu.be&t=2h22m28s
a včem se mýlí, když jsi napsal přesně to samé? 😀 Synku …
DLSS je super-sampling, ne upscaling. V tom se plete. On dava dohromady vetu, kterou Huang rekl v kontextu celeho NGX frameworku, s DLSS. S tim to ale vubec nesouvisi.
Maudit> Toto už ani nie je demagógia, každý si môže pozrieť čo na tom videu Huang hovorí o DLSS: https://www.youtube.com/watch?v=IG2wVjQUr3c&feature=youtu.be&t=2h18m43s
O NGX hovorí ako o budúcnosti, tam hovoril o tých troch možnostiach čo si napísal, ale v časti špecificky o DLSS hovoril to, čo som napísal vyššie.
To je cast, kde se venuje trenovani te neuronove site LOL
jávím jávím, on tam hňácá dohromady úplně všechno, nerozumí ale ničemu …
Maudite krásně se ukazuje jak jsi totálně zmatený, ale hlavně hloupý. Poučuješ tu o supersamplingu, jehož princip každý zná. Jediné co ti schází je rozum, kdybys ho měl tak by ti došlo, že ta kilometrová báchorka co jsi tu vyplodil je naprostý blábol. Opravdu ti není divné, že s DLSS má 2080 vyšší výkon než bez? 😀 (hint, hint)
Mě se opravdu líbí jak si tu fanaticky vymýšlíš věci, všechno si to píšu, časem z toho udělám pěkný příspěvek. 😀
*Mně 😉
2080 ma s DLSS vyssi vykon prave proto, ze offloaduje samplovani ekvivalentni vyssimu rozliseni na Tensor Cores, cimz se zbytku cipu velmi ulehci. De fakto pak dostanes z CUDA jader vykon odpovidajici vykonu s vypnutym anti-aliasingem.
😀 a opět to tu je, snílek Maudit a jeho divoké teorie
s 80% nárůstem to nevyšlo, tak zkouší jinou teorii
Ten graf ukazuje kolem 200% narustu hned u nekolika her 😉
200% (dvěstěprocentní) nárůst by byl nárůst o 200 %. Výkon karty by pak byl 300 % předchůdce. To tady není.
Tady je 100% nárůst (s tím DLSS), po čemž je výkon 200 % předchůdce. Protože předchůdce je 100 %, k tomu +100 %, výsledek dvě stě.
Nárůst o 45 % teda znamená, že karta má 145 % výkonu předchůdce.
Kdyby tam byl 0% nárůst, tak je výkon 100 % předchůdce.
(To pro vyjasnění těch procent).
Prosím vás, vysvětlete mu někdo jak se počítají procenta, já na to fakt už nemám nervy. 😀
Děkuji. 😀
Narust na 200% vykonu GTX 1080. Spokojenost? Od toho faktu ale tezko uteces, Aznohu.
no nevím Azruko, za blbce jsi tady dneska snad jen ty … a nic na tom nezmění tvoje neustálé ataky a posměšky …
ataky? slyšel jsem ataky? 😀
tak né, takové to pošťuchování 😀 … dělám si prdel, aby řeč nestála …
Maudit – ale ty to máš všechno postavené jenom na domněnce, že když to má v názvu SS, tak to musí být supersampling jako ve smyslu FSAA. Ale to přece vůbec nemusí bejt pravda. „Vzdělávání“ musí být založený na něčem víc než na domněnce, respektive v tomhle případě ještě hůř, na chtění, aby něco bylo tak, jak sis to vysnil.
A právěže zatím všechno svědčí o opaku. Je to postprocessing, tedy úloha co přidává čas navíc pro každý zpracovávaný frame, přesto je ale výkon vyšší. Z toho vyplývá že evidentně před tím postfiltrem se někde šetří výkonem. Logicky to tedy musí být rendering na nižším rozlišení.
Na domence? 🙂 Huang pomerne jasne popisuje tri ruzne schopnosti NGX.
„Maudit 23.8.2018 at 12:52
Huang tam popisuje ale cely ten NGX framework (je to za nim na slajdu), ne jen DLSS. Spojujes si nesouvisejici veci. On popisuje vsechny moznosti, ktere ten NGX framework ma, doslova rika, ze muze vylepsit:
1) „lower resolution image“ – upscaling
2) „lower quality image“ – DLSS
3) „sometimes an image not even complete“ – raytracing
https://www.youtube.com/watch?v=IG2wVjQUr3c&feature=youtu.be&t=2h22m28s
„
Jeste k tomuhle:
„A právěže zatím všechno svědčí o opaku. Je to postprocessing, tedy úloha co přidává čas navíc pro každý zpracovávaný frame, přesto je ale výkon vyšší. Z toho vyplývá že evidentně před tím postfiltrem se někde šetří výkonem. Logicky to tedy musí být rendering na nižším rozlišení.“
Zase ta tvoje omezena logika. To uz vypada na schvalnost – bias AMD fanouska – ale rad se budu plest. Pro pocitani DLSS se vyuzivaji Tensor Cores. Jinymi slovy vykon se setri tim, ze co driv musela pocitac CUDA jadra a zbytek cipu, se ted z vetsi casti vyresi na Tensor Cores, ktere jsou na cipu navic ke CUDA cores. To je stejny princip jako s RT, kde se vypocty opet presunuly na specializovane (a na danou vec mnohem efektivnejsi) RT cores.
Mozna by neskodilo, kdyby sis to dal dohromady s vyjadrenim inzenyra Nvidie o strategii pro Turing na forech 3DCenter (ktere bylo zda se uz odtraneno, puvodni link zde: https://www.forum-3dcenter.org/vbulletin/search.php?searchid=13024487 ), ktery rikal vicemene:
– jeste jsme neukazali vsechny inovace a technologie Turingu
– hrube zvysovani vykonu nema budoucnost, musime na to chytreji (=> offloadovani prace na specializovana jadra – Tensor Cores, RT Cores)
Honza chodí na pívo se Stachem, jinak to nevidím …
plnokrevné review bude 14 Září … říká nVidia …
Možná by Maudite neškodilo, kdybyste tu přestal pleskat nesmysly už jednou provždy a možná raději začal používat tu kouli, co máte na krku. Hlava se ji říká. Ty vaše teorie se super samplingem už ani směšné nejsou. Možná si pusťte ten Keynote ještě tak 2x, 3x a třeba pochopíte..
@Jan Olšan, pěkné vysvětlení, žel tohle je na Maudita asi stále moc odborné..Docela Vás obdivuji, jakou trollorezistenci mate ;D
Jasne, takze technika pojmenovana Deep Learning Super-Sampling, bude delat presny opak super-samplingu (upscaling), to dava smysl 😀 Vubec by to v takovem pripade nepojmenovali Deep Learning Upscaling, to neee! Navic naproti vsemu, co Huang v prezentaci rika. Vy jste dobri strelci. To bude legrace 20. zari, az bude vsechno venku 😀
Ja vim, narust vykonu RTX 2080 na uroven 200% GTX 1080 musi byt pro vas AMD fans strasidelny, kdyz Vega mela extremni problem vubec se dotahnout na level GTX 1080. Ale hele treba AMD za dva tri roky tenhle perf level dotahne (a vubec se nemusite trapit ted tim, ze Nvidia v te dobe uz bude mnohem dal). 😀
Samozřejmě, že by to Huang a jeho markeťáci nepojmenovali jako „upscaling“ 😀 protože by to znělo hrozně a každý by ohrnoval nos.
Ty jsi na to nakonec došel sám… vidíš že to jde kluku ušatá, nakonec tě tomu logickému myšlení naučíme. 😀
Tvrdosijne popirani faktu? Takze jsi uz ve full denial modu. Konecne. Hlavne doma nezmlat manzelku a/nebo deti, oni za to nemuzou. A bacha na myslivce, pena u huby je pro ne jako cervena pro bejky, tak aby te nepifli 😉
Chapu te Maudite, predpokladam ze tvoje anglictina je na stejne urovni jako tva cestina a matematika. Ty proste tomu Huangovi nerozumis. 😀😀
„To je stejny princip jako s RT, kde se vypocty opet presunuly na specializovane (a na danou vec mnohem efektivnejsi) RT cores.“
V kontextu toho, že zatím všechna RT dema ukazují jen ve FHD, je to velmi vtipné. 😀
Honza na to jde naopak nejjednodušší a nejlogičtější cestou, zatímco Maudit čistě vaří z vody.
z vody se furt vařit dá, ty mícháš prázdný hrneček …
Vždyť to Huang říká úplně přesně ve videu, ještě jde vidět že mu to neleze moc přes jazyk, že nechce narovinu přiznat, že to DLSS je upscalované z nižšího rozlišení, ale nakonec to řekne, že z 1440p udělá 4K. A to přesně zde: https://www.youtube.com/watch?v=IG2wVjQUr3c&feature=youtu.be&t=8405
Nechápu, že tu Maudit několik dnů mele kraviny pořád dokola. Nebo takhle.. já to chápu, prostě fanboy, kterej žije absolutně mimo realitu, jen v jeho vlhkých snech. Prakticky všechno co tu Maudit napsal za posledních několik dní a co si navymýšlel se ukázalo, že byl jen jeho výmysl. 😀
Se tu trhám smíchy, proto tyhle diskuse miluju, jak se v nich ti největší fanboys (ať už Nvidie nebo AMD) sami znemožní. 😀 😀 😀
Helet to je tvuj problem, ze si tvoje reality distortion field spojuje spolu nesouvisejici casti 😉 Huang v tomhle konkretnim miste popisuje proces trenovani te DNN. Vzdyt to ma I za zady na tom slajdu ..
Mozna ti to nikdo nerekl, ale neuralni site se nejdriv trenuji (v tomhle pripade v jejich superpocitaci, viz. ten obrazek) a pak se vyhodnocuji (to uz probehne na tvem GPU, u tebe doma) 😉
Trénování se provádí naopak na vysokém rozlišení, by the way. 😀
Tak konecne jsi to pochopil. Trvalo to jen dva dny LOL
I kdyz sem ti to teda musel polopaticky vysvetlit nahore:
„Funguje to tak, ze oni renderuji v jejich datacentru statisice obrazku treba v 8k, 16k (nebo jakemkoliv vetsim rozliseni, Huang tomu v keynote rika super-resolution) a ta neuralni sit se uci nahradit nutnost renderovat obraz ve vetsim rozliseni svoji vlastni logikou, z kontextu obrazku.“
Ale je to tam. Tak a ted mi schvalne rekni – kdyz pouziju superresolution obrazek jako ground thruth, treba 4k obrazek, jak rika Huang, co bude vychozi obrazek, treba v tech 1440p? To bude lower resolution image. A co se uci ta neuronova sit? Zrekonstruovat tu ground truth, ten 4k obrazek.
Uci se doplnit chybejici data. A co s tim pak muzes udelat? Zvetsit rozliseni (ale bez AA), nebo ponechat stejne rozliseni a pouzit ty extra samply na super-sampling. Proto se tomu rika Deep Learning Super-sampling. Opet popsano uz nahore 🙂 Ocividne to spousta lidi pochopila, protoze to vysvetleni ted ctu uz I na jinych webech a forech. Jen AMD fans jak ty s tim maji problem. Jako jasne, AMD fans maji obecne nizsi rozlisovaci schopnosti, proto jsou schopni koupit jejich grafiky a CPU. Ale I to uz prestava vysvetlovat ten level tuposti ted 🙂 Bud se prekonavate (ve spatnem slova smyslu) nebo to proste delate na schval – mozna I nevedomky v ramci pudu mentalni sebezachovy. At uz je to jak chce, je sranda to sledovat.
Jsi vtipny Maudite. Ja na rozdil od tebe SS pouzivam, raytracingovy engine jsem zkousel programovat v Pascalu pred nejakyma 25 rokama a o deep learningu toho vi vic nez ty snad i Crha. 😀 Jediny kdo se tu dnes neco naucil jsi ty a to zaklady matematiky a prace s procenty. 😀😀
Obvineni z Amd fanoustvi je uz takova klasika, kdyz fanatikovi dojdou vsechny argumenty a nevi si rady jak dal. Nudna klasika ala Maudit a Hnida. 😀
Maudite, já myslím, že v tomto bodě už ti začíná pomalu docházet jak vedle jsi celou dobu byl. 😀 Doporučuju ti už dál nepsat, protože si to jen zhoršuješ. 😀
Pokud jsem prijal rovnici Vega = fail, tak proste musim byt spravedlivy a prijmout ted stejnou rovnici Turing = fail.
Kdyz porovnam pomer vykon/cena, tak narust vykonu pri stejne cene je +5%.
To je jako totalni vysmech, to at si NVidia necha od cesty.
Sorry ale jako na DLSS jsem asi tak stejne zvedavej jako na RT, respektive u toho RT aspon vim, ze ikdyz ted je to o nicem, tak za tri roky to muze bejt paradni, protoze treba uz prvni generace 7nm to treba uz vykonove utahne. Naproti DLSS je dalsi ochcavka o nicem.
JSI UBOŽÁK A UŽ SKLAPNI !
Turing je masakr ZDUPÁVAJÍCÍ veškerou konkurenci na dno. Navi se nevyrovná ani rtx2030 za deset let.
Cim prosim te? Tema 5% vykonu navic oproti Pascalu?
Turing je naprosto o nicem, vubec me nenapadlo, ze budu s Pascalem nucen Turing preskocit, protoze proste nedava zadny smysl a holt musim pocket az na 7nm, zamerne nepisu jestli Ampera nebo Navi, to je ve hvezdach, jak na tom kdo bude.
cože? Ty máš pascala? Že jsi se na nikdy o tom nezmínil…..
Jak nezminil? Vzdyt jsem to psal kolikrat.
Mame doma dva PC: GTX1070 na jednom ale nechavam prostor klukovi, protoze stejne hraju nektere starsi hry, ktere si dluzim dohrat, treba ted Gothic 3. Takze mi staci GTX570 na druhym PC. Tu potrebuju upgradovat, ale klidne to muzu delat dal tak jako doted, ze kdyz mladej neni doma, tak si muzu dat neco novejsiho a jinak si dal budu hrat ty starsi veci na ktery ta grafika staci.
citace redmarxu: “ vubec me nenapadlo, ze budu s Pascalem nucen Turing preskocit“ tohle jsi napsal ty. Takže začínám nabývat dojmů že lžeš, protože pokud má někdo jinej v tvé rodině gtx1070 tak kvůli pascalu ty nemusíš turinga přeskakovat. Pro tebe s nepascalem je turing jasná volba. Teda na hraní gothic3 ne, to máš pravdu, to ti bude stačit i Navi v roce 2021.
No prave, na Gothic3 to nepotrebuju a jednohubky typu Far Cry 4 a 5 si muzu zahrat na druhem PC.
Turinga jsem chtel puvodne kvuli zamyslenemu ELEX a Kingdome Come, ktere jsou na dlouhe hrani a na soucasne grafice uz je nedam. Takze ano, nikdy jsem nerikal nic jineho, Turing byl v planu, ale kdyz vidim, jaka je cena a jak mi to nic neprinese, tak si fakt koupim radsi za par korun tu bazarovou RX580, ty dve hry co bych chtel hrat na to mdam taky a pockam si na drazsi grafiku az na 7nm generaci.
A jsme u toho znovu. K cemu nadherna grafika, kdyz hra sama o sobe je nuda plna mikrotransakci…a to jsem clovek, ktery na grafice lpi hodne. Krasny priklad je s VR, 1070 ready, 1080 a vys jeste lepe…ale kde mame VR za normalni ceny, kde jsou ty mixed reality bryle? Kde jsou ty HDR monitory, kvalitni 144+Hz IPS panely…? RT je super a je dobre, ze se technologie uz zkousi v realu, ale dnes je to nepouzitelne a jen to laka ovce zallatit mnohem vic, nez je skutecna cena. HBM pameti, za ktere je zesmesnovana Vega – opravnene, tak to same by ted melo platit na Kozenakuv navysovak ceny v podobe RT a DLSS…
@Alich: Aká je skutočná cena za karty obsahujúce RT a Tensor cores? Keďže ide o prvé GPU s týmito technológiami, tak ma úvodné ceny neprekvapujú. Tiež píšeš, že sú tieto technológie nepoužitelné, pričom boli jasne ukázané v prezentáciách čoskoro vydávaných hier. To mi od nepoužitelnosti príde hodne ďaleko. Toto nie sú primitive shaders, ktoré doteraz u Vegy nefungujú. NV okrem podpory v HW totiž pre svoje technológie zaistila aj SW výbavu a použitie. By som skôr povedal, že je to dobrý príklad toho, ako uvádzať technológie do praxe. Nie tak, aby sa roky čakalo kým „dozrejú“ do doby, kedy pôvodné karty, ktoré ich mali využívať sú už zastaralé.
Redmarxi tak já už ti vůbec nerozumím, na jednu stranu seš naštvanej že Turinga přeskakuješ a říkáš že to je fail a na druhou stranu ti to vlastně vyhovuje protože ušetříš a později si pořídíš nadupanou vyladěnou 7nm kartu. Víš co, přestaň pár dní psát komenty, vychladni, pusť si třeba Terra Tech nebo Road Redemption a usekávej tam hlavy motorkářům. Až tady budou testy a první vlna nadrženců bude ukojena dodáním karet, pak se rozhoduj. Ano pro ty co mají teď Pascala není důvod přezbrojovat. A taky to nikdo v nVidii netvrdí. Šlápli do hovna a teď čekají jestli to hovno přinese štěstí a nebo bude jen smrdět.
Ale jen AMD ovce ti rvou do palice nesmysly o tom že nVidia nutí své ovečky při každém vydání kupovat nové karty. není to pravda, stačí ob jedno nebo ob dvě generace a v pohodě si zahraješ. To jen AMD fanATici tě oblbi kecama jak bude Polaris super karta…která zdupe gtx1070 na prach….vlastně né né super karta bude Vega…která zdupe gtx1080 na prach…. jé promiň…super karta bude Navi… která zdupe rtx2080Ti na prach…
Ale noták. Aby Ti z něho ještě nerupla cévka. Určitě by to byla škoda a všem by se zde stýskalo. 🙂
Crha: Fanatismus level 100 achieved. 😀
Azznoha: Zoufasltvi Level [longfloat overflow] achieved
Aha, takže Hnízdovi to přijde ok, ten rage od Jarouše. OK, je pěkné jak se ovečky držíte ve stádě pěkně u sebe. 😀 😀
Azruko, ty tu frustraci snad můžeš už i vařit a jíst …
Tu Hnízdovu? Souhlasím s tebou Gogo.
Vsichni to vidi. Ja se vazne dobre bavim LOL
Omg co si to ten gerontofil slehnul?
Pane Crho, dekujeme za dalsi uzitecny prispevek v podobe Crrrrrhejtu.
Nebo jsem mel napsat spise CRHAte?
směšné je jak na všech diskuzích jedou na plné obrátky šarvátky AMD fanATiků, kteří žádné karty nemají a AMĎáků, kteří jsou v pohodě s nadhledem…
Já nejsem ani “AMDak” ani “Nvidiak”. A momentálně jedu na 1080 Ti, ale to už jsem tu parkrat psal. Co se mi na novych GK od Nvidie nelíbí, ze jsou pekelný predrazen…už předchozí verze byly.
dovolil ti Stach jít pindat na tento podle něj zaprděná plátek?
Co mate pořad s tím Stachem, kdo to je, nějaký vás příbuzný. Bratr.
Mauditovo dvojče.
siamské 😀
Klasicke marketingove zvasty. Je hezke, pokud 2080 ma 50 % vykonu navic oproti 1080, ale pokud 2080 stoji stejne jako drive 1080 Ti, pak je potreba ji porovnavat s touto kartou, nikoliv s 1080. A pak je narust vykonu naprosto tragicky.
Každý si nájde porovnanie podľa toho ako chce, aby mu výsledky sedeli. 🙂 Podľa mňa sú obe porovnania v poriadku. Jednak s GTX 1080tkou, pretože je to jej priamy nástupca a aj podľa cenovej hladiny, kľudne s GTX 1080 Ti, keďže je tam nasadená. Skôr si ale myslím, že cena Pascal kariet klesne po vydaní 2000kovej rady.
Vzhledem k tomu, že 1080 se da koupit nova za 13500 Kč a 2080, jeji primy nastupce bude stat 20 tisic a vic, tak i v tomto případě povazuji narust vykonu o 30-50 % za naprosto tragicky. Bavime se o novych modelech po dvou letech!
Podobne i 2070 bude drazsi nez 1080 a rozdil vykonu zda se do 15%, kdyz to prepocitam cenou, tak nova generace +5% vzhledem k cene.
Slabota.
hej vysvětli mi to, když jsem kupoval gtx1080 za (v obchodě byl nápis, že jsem to měl levněji ponechme stranou) 22000,-Kč, dneska chtějí za gtx 2080 22.000,-Kč tak mi prosím vysvětli to zdražení, protože ho pořád nechápu.
Tvuj problem, zes to kupoval tak draho. Ja kupoval GTX1070 za 12.200 Kc.
Crha je rozený obchodník, ten i Ethereum koupil na vrcholu. 😀
Tos vázne kupoval 1080 za 22 tisic?
za 17, ale pššt to se tady nesmí říkat, protože by ovce záviděli. Já nevím čemu se furt divíte, před Vánocmi 2016 byla prostě za 22.000, klidně si to nejděte na heureéce, takže když si dneska půjdu koupit další řadu rtx2080 tak stojí zase 22.000 tak kde je to zdražení, už mi odpověztéééééééééééééééééééé
KDE JE TO ZDRAŽENÍ??????????? KDEEEEEEEEEEEEEEEEEEEE?????????????????????????????? ubožáci od AMD, rozumíte čeky? Kde je to zdražení????????????? KDEEEEEEEEEEEEEEEEEEEEEEE????????
za 22.000 +45% výkonu…….. po dvou letech……….
AMD má Fury +44% Vega a teď…. teď nic… takže jestli bude Navi +44% tak olala tu máme v roce 2020 výkon rtx2070-2080 a to se vyplatí…. s dvouletým zpožděním………………… looooooooooooooollllllllllllllllllllllll
redmaxi, pokud počkáš jako tehdy, taky koupíš levněji …
Crha a já jsme kupovali ve stejný čas, on přes firmu, proto levněji … já dal za moji přes 20 … a coby ne …
Sidey, co takhle porovnávat 2080 s Vegou 64? Nebo to není fér? 😀
Tak porovnavej, ja kupoval pred rokem VEGU64 za 16k se dvema hrama … jaky dostanu navyseni vykonu v procentech kdyz koupim 2080 za 22k coz je 37.5% navyseni ceny?
80%
To by slo, uvidime az vyjdou nezavisly benchmarky
sidey oprava: Vzhledem k tomu, že Vega se da koupit nova za 25500 Kč, jeji primy nastupce neexistuje, tak i v tomto případě povazuji narust vykonu o 0 % za naprosto tragicky. Bavime se o Veze která přišla po dvou letech od vydání gtx1080!
Netusim, kterou Vegu myslis? 64? Ta stoji koloem 17-18 tisic, ne?
Gigabyte GV-RXVEGA64GAMING OC-8GD: únor 2018 – 24.258,-kč, březen 2018 24.311,-Kč, červen 2018 20.743,-Kč, červenec 2018 18.912,-Kč a nao teď 17.882,-Kč, ale při vydání stála 25.000,-Kč. To že nemáš žádnou paměť dokládá jak hloupá ovce seš.
https://graficke-karty.heureka.cz/gigabyte-gv-rxvega64gaming-oc-8gd/#
Hej. Ale kedy nárast výkonu presne zodpovedal nárastu ceny? Aj v iných odvetviach sa to tak robí. Za každý nadštandard či nízke zlepšenie sa doplácajú riadne sumy. Či už sa to týka topánok, bicyklov alebo komponentov PC. Je to jedno. NV vydala prvé GPU s použitelným RT a s podporou využívania výsledkov oboru strojového učenia, tak si za to necháva zaplatiť. Neverím tomu, že by sa také AMD v jej pozícii chovalo inak.
Presne tak jak pises. Nvidia v minulosti mela ceny vzdy dost odpovidajici velikosti a vyrobnimu procesu. Tabulkuuz jsem tu daval. A otazkou je jak zakaznici prijmou, ze velkou cast cipu tvori tranzistory ktere jsou nove a doposud neexistovaly v hernich kartach.
A je fakt k pobaveni, ze kdyz se jim to hodi, tak vytahnou pomer cena/vykon, alejak pises, je naprosto bezne, ze nekteri vyrobci si nechaji zaplatit. Viz treba Bugatti taky nejezdi 20x rychleji nez nejaka Octavia, ze?
Ale tady nejde o to, ze narust vykonu neodpovida narustu ceny. Tohle je karta, co prisla po dvou letech (!) A vysledek je ten, ze ma prakticky stejny vykon za stejnou cenu jako ona karta 2 roky stara (vykon bez RTX). Clovek jaksi ocekava, ze technologickym vyvojem dostane časem za stejnou cenu více vykonu, nebo stejny vykon generace minule za nizsi cenu. A to se tady evidentne nedeje. Takze moje GPU, stara 4 roky zpet, stala necelych 10k, stale zustava na svem miste. Protoze aktuálně neni kam upgradovat.
ani nebude, protože za „tvoji“ cenu lepší kartu nikdy nekoupíš …
Bohuzel, ale toto je nasledek nekonkurence. Takto doplacime za RTX. Pokud by konkurence byla, tak by nam Nvidia pravdepodobne vydala nove karty s vyrazne vice klasickyma tranzistorama (pravdepodobne uplne bez RT), patricne vyssim vykonem a za ceny predchozi generace. A mozna by RTX vydali jako samostatnou radu vedle nove standardni herni. Kdo vi?
Pokud nekoho skutecne nezajima RTX, tak at koupi 1080Ti.
Mne se libi, ze NV vydala karty s RT. Beru to jako prvni generaci, od ktere toho nejde moc cekat, byt mne zatim ukazky vyjma snad reflexe ve vode, moc nepresvedcily. Pokud narust vykonu karet bude cca 40+% oproti predchozi pro stejny level, tak mi to prijde taky ok. CO mi ale prijde dost blby je, ze podle mne ceny porostou a bude trvat dlouho pokud vubec) nez spadnou aspon na uroven dnesni aktualni generace 1xxx.
Co se tyce AMD..tak zbyva doufat, ze vyda aspon pristi rok nejaky rozumny mainstream (pro nas smrtelniky) a snad se 2020 vrati zpatky, tak jak jsme ji znali driv. Finance na to snad uz bude mit lepsi, nez doposud.
tombomino: Bohuzel jak pisi, Nvidia si uctuje hlavne podle plochy cipu a vyrobniho procesu (cim mensi tim drazsi). A u techto karet ktere maji hodne velke % pro RT a AI, tak je narust klasickych jednotek daleko mensi nez celkovy narust plochy. Takze ted jen doufejme, ze tyto jednotky budou patricne vyuzite.
gogo1963: nežvaň nesmysly.
sidey, ty nic jiného neděláš … nonstop … plácání, kecání, žvanení, blbolení, sem tam nějaký pičung, pak zase žvástání atd atd … a ještě se urážíš … synkuu, nech toho, nic z těchto karet si nekoupíš, jen slintáš a pliváš a chodíš se utěšovat za Stachem … zeptej se mámy, co si o těch tvých „moudrech“ myslí …
Máte tam chybku v textu pod obrázkem:
Podle Nvidie je GeForce RTX 2080 v rozlišení 4K až 2× výkonnější než GeForce RTX 1080. To ovšem jen s filtrem DLSS, kdy jde vlastně o upscaling z nižšího rozlišení
RTX 1080 🙂
upozornuji, ze o principu DLSS toho moc nevime, takze s tim upscalingem z nizsiho rozliseni opatrne. to se ukaze az z whitepaperu.
chuch-in, to chce klid AMD ovečko, dodnes nemá Vega ovladače, které by využili všechen její hardware, nvidia tak má dva roky náskok na to vydat ovladače na kterých budou zapnuté všechny hardwareové prvky… až to bude tak výkon bude možná i trojnásobný. Crha napsal trojnásobný? Vážně? To chce klid, schválně přeháním aby jsi byl psychicky připraven.
DLSS neni upscaling, ale super-sampling.
„Powered by Turing’s Tensor Cores, which perform lightning-fast deep neural network processing, GeForce RTX GPUs also support Deep Learning Super-Sampling (DLSS), a technology that applies deep learning and AI to rendering techniques, resulting in crisp, smooth edges on rendered objects in games.“
https://nvidianews.nvidia.com/news/nvidia-rtx-platform-brings-real-time-ray-tracing-and-ai-to-barrage-of-blockbuster-games
Mozstvi AMD fans, kteri jsou ochotni se ztrapnit, jen aby mohli sami sebe obelhat o tom, ze se z Vegy nestal low-end, je az zarazejici. Cekal jsem cokoliv, ale tohle je vetsi sranda, nez jsem si dokazal vubec predstavit 😉
zbytečně se snažíš … hrách, zeď, závist, frustrace … jak chceš koho přesvedčit?
No vas AMD nohsledy fakt ne 😉 Frustrace je videt na snaze o damage control ze strany AMD fanousku – „raytracing neni o nicem“, „DLSS je upscaling“ LOL Takovy energie tady v postech 😀 😀 😀 😀 😀
Nedivim se. AMD jeste ani poradne nerovnala vykon, natoz features jako tile-based rendeding nebo ted novejsi Tensor Cores, a uz tu mame dve nove prevratne technologie, a to dokonce v consumer segmentu, s dost velkou podporou vyvojaru (ve srovnani s mnozstvim podpory pri uvedeni jinych technologii), a to jeste od tech nejvetsich – v BF5, UE4, Metru, Tomb Raideru, ..
Co s tim, co s tim, vid? 😀
Díky za upozornění, opraveno.
Když si řeknu, že 2080 má 15% více CUDA a o 27% rychlejší propustnost paměti, tak mi to příjde jako super výsledek. Ale vyšší cena je prostě znát. Podle mě to udělali proto, aby stále mohli prodávat 10xx řadu za stejný peníz a mohli tak vyprodat sklady za stále stejný zisk.
Ale zase chápu cenu 2080Ti. Přeci jen ten čip je skoro dvojnásobné velikosti a to musí jít na výrobě znát.
Každopádně jsem zvědavý, co udělá AMD. Vegu určitě podle mě nezlevní. Na výrobu je až moc drahá. Myslím si, že jí zruší kompletně, zvlášť teď, ,když budou potřebovat HBM na 7nm Vegu. Myslím si, že právě 580 půjde o tu stovku níže. Jsem zvědavý no. 🙂
Tak AMD ma urcite nejake skladove zasoby, takze zrusej vyrobu Vegy, ale prodavat ji budou dal. Sice temer nic neprodaji, ale to jim vadit nebude.
Nechaji v prodeji i vyrobe Polaris, aby nezmizli uplne a holt budou ocekavat dokonceni vyvoje Navi, kterou nahradi jak Polaris, tak Vegu.
Vega skončí v propadlišti dějin jako velký fail, alespoň tedy co se desktopové Vega10 týče. AMD tyhle čipy doprodá spíše jako profi karty s pěknou marží a budeme doufat, že nástupce bude alespoň trochu solidně konkurovat NV.
Co se mobilních verzí týče, tak tak tam si Vegy vedou poměrně slušně. Jak Vega integrovaná v Raven Ridge , tak ještě nevydaná Vega Mobile s HBM. Alespoň v těchto produktech nejde takový propadák jako je desktopová Vega 10. Bohužel, ta nejzajímavější vychytávka Vegy ( Primitive Shader + NGG fast path) není funkční (a podle mě ani nikdy nebude) takže zůstává je schopnost provádět RPM a o něco vyšší základní takty oproti Polarisu…….
Je otázkou jestli Navi v tomto kontextu něco může změnit, páč pořád půjde v základu o letité GCN, takže tam bych moc naděje neupínal a moc budu doufat, že „next gen“ GPU vrátí zase RTG zase zpátky do hry.
Maly souhrn ke grafum Nvidie:
– DLSS (Super Sampling = mene kvalitni obraz) musi byt implementovano vyvojari her! Jinak nefunguje! Podobna situace jako s FP16 u AMD VEGA = vice vykonu ale bez implementace vyvojari her nefunkcni.
– EPIC neni hra ani benchmark
– Nektere tyto hry jeste ani nevysly
– Vega ve Wonfsteinovi je plne srovnatelna s RTX2080 FE(OC) za 799 USD
– Porovnavani s 1080 FE se zakladnim chladicem bez OC za 499 USD
– Testovano v HDR kde je 1080 znevyhodnena 10% kvuli pametem. Anavic potrebujete HDR monitor pro pouzivani.
– Cely graf je v 4k coz da 1080 tak maximalne na 30 FPS, tudiz 60 FPS da 2080 jen ve 4 hrach a to jen s DLSS
Dlss kvalitu zvysuje.
Epic je tech demo, ukazka moznosti
Nektere hry nevysly a to je problem?
Co tech dalsich x her s 60+ fps na druhem obrazku?
Co komentare lidi co tam byli a videli bezne behat 4k hry v ultra na 100+ fps s 2080ti?
Presne takove reakce jsou duvod proc to nechteli poustet hned.
Hele, předpokládám od Speedyho lehkou ironii, ale ty jsi teda taky poměrně naivni.. nebo fanatik bez odstupu.
– DLSS – např. na tomto videu ty rozmazané mrakodrapy kvalitně nevypadají https://www.youtube.com/watch?v=IG2wVjQUr3c&feature=youtu.be&t=8762
(ale nedělám osobně o zatím DLSS závěry, počkám na testy)
– těch dalších x her s 60+ fps nejsou nijak závratně náročné tituly a mnohé umí na 60fps i 1080ka, jo kdyby tam byl Deus Ex: MD nebo Crysis 3, to by bylo jiné kafe
– 4k hry na 100+ fps – víme o nich něco? nebo to byly hw nenáročné tituly typu Overwatch?
možná ty mrakodrapy mají být rozmazané … dým ze zbraně … 😀
Na Zaklade tech vyrezu, mi teda prijde, ze ten DLSS obrazek je uz dost manipulovany pres hranice vyhlazeni. Je tam o dost mene detailu pri srovnani s TAA. Tahle ukazka mi prijde dost divna.
To bude ironie, protoze to je kopie Stachovy reakce LOL. Nebo taky speedyho account jedna ze Stachovych ovecek hacknula 😀
Pěkné BF1 RT demo https://www.tweaktown.com/news/62907/battlefield-gameplay-video-nvidia-rtx-1080p-60fps/index.html
BF1 raytracing je to jediné, co mě na RT zaujalo. Ta ukázka z Tomb Raidera byla meh, vypadalo to, že s RTX off vypnuli úplně dynamaické stíny těch dětí se svíčkou či čím, aby byl rozdíl větší. BF1 RT vypadá pěkně, pokud vezmeme v potaz, že na implementaci měli extrémně málo času a že raytracing je ve hrách na začátku, je to slibné.
Jen mrzí prezentace opět jen ve FullHD, přitom mistr Maudit se zapřísahal, že RTX naopak hry zrychlí. 😀
„pokud vezmeme v potaz, že na implementaci měli extrémně málo času“
To je prave vyhoda raytracingu – je jednoduchy na implementaci. Vsechny ty efekty, jako svetlo, stiny, odrazy atd. vychazeji primo ze zakladniho raytracingu. Nemusi se implementovat slozite techniky jako v pripade rasterizace.
Tady preci nejde o to, ze by RT nebyla bomba, ale ze to bude umet BF1 je parada, ale tuhle serii nehraju a nez se to dostane do her, tak tu bude 7nm generace karet.
Dalsi mozna jeste dulezitejsi vec, ze prechod svetlo stin je samo o sobe mnohem hezci na HDR monitoru i v soucasnych hrach, tudiz RT + HDR bude jiste famozni. Ale mam HDR zobrazovadlo? Nemam. A kolik hracu ho ma?
A treti vec, ze to daji jen na fullHD, taky k nicemu, kdyz se lidi posouvaji na QHD nebo UHD.
Takze nejak nechapu tu super vyhodu ted hned. Jenom marketingova masaz. Ze udelala NVidia Quadra pro vyvojare, aby mohli zacit pracovat s RT, to NVidii jiste tleskam, ale ze po mne NVidia chce priplatek nejakych 4.000-5.000 za fycuru, kterou nevyuziju, tak to jako teda ne. To me nastvali.
Lidi se ale na QHD/UHD moc neposouvaji, viz statistiky Steamu. FHD: 63,72 %, narust 3,17 %, QHD 3,12 %, pokles 0,33 % UHD 1,14 %, pokles 0,07 %
Redmaxi, ber to tak, že nvidie žádnou novinku nevydala, že Turing neexistuje a nekmentuj to, co neexistuje … počkej si na 7 nm
Presne tak, Nvidia nevydala zadnou novou ciste herni/rasterizacni kartu, at to berou vsichni tak, ze nove karty jsou herne/RT. A je to. Proste Pascal zije dal a bude s nami 3 roky. A za rok uvidime, zda dalsi generace bude herne/RT.
Podivej, to je slozity.
Ja cekal na Polaris, pak se ukazalo, ze to nema mnou ocekavany vykon. Tak jsem cekal na Vegu, zblblej fanouskama AMD. Ta neprichazela, tak jsem sel do Pascalu.
Ted zase cekam na Turinga a kdyz konecne vysel, tak se ukazalo, ze stejne jako proklamovana herni Vega je skvela vypocetni karta, ale k nicemu na hry, tak Turing umi raytracing, ale jinak na hry zadnej pokrok.
Ted si prijdu jako blbec, tu hanim OPRAVNENE Vegu a opevovana NVidia mi udela v podstate to same? Ty me tak vytocili, ze si minimalne pockam na Navi, kdyby se to AMD preci jenom povedlo a az potom se rozhodnu, jestli zase na 7nm NVidia nebo AMD.
ještě jsi neviděl jediný reálná benchmark na kvalitních ovladačích a píšeš „žádný přínos“ …
a pokud nvidia vydá za rok a něco další řadu na 7 nm a nebde šetřit na velikosti čipů, bude před „navi“ řku nějakých 100%
To si cucas z prstu, nevis, jak to AMD vyvine.
To ze to NVidia taji tak dokonale = minimalni prinos pro DX10/11. Treba ne, ale myslim, ze jo. :-/
Ehh píšu BF1, myslím BF V
Ty odlesky ve vode vyapdaji pekne narozdil od blysticich se tanku. To dodava ty hre trochu atmosku navic. Ale vyapda na to poradneho zrouta vykonu, aspon mne pripadalo, ze se jim to v ty ukazce obcas sekalo.
RT fajn jako tech demo, co bude mozny. Realne spis ale spis s pristi a porpistima generacemi karet,
Jj, pro nejake poulicni zavody nabliskanych aut, idelne jeste na mokru jako delane. Bude zalezet na implementaci.
vývojáři by na tom lesku mohli malinko ubrat, jak někdo trefně poznamenal, v dešti, v boji, v ruinách naleštěný automobil vypadá víc než nereálně … odlesky se dají dělat i na matném podkladu …
To áno, ale teraz to aj chápem, že to chceli za účelom prezentácie viac zvýrazniť. A ani sa nečudujem, keď niektorí ludia aj tak píšu, že rozdiely sú minimálne. Čo by robili keby boli menšie než to, čo sme videli. 🙂
https://i.redd.it/ta0atfbspgh11.jpg 🙂
https://uploads.disquscdn.com/images/1102852493d8b4d48acee5355b06adc9e020a49c4eaf93da33f0b6d04a7f80ab.jpg 😀
https://uploads.disquscdn.com/images/5ed1cfbbe458f3f8f4bf47eca05a49774383770c377017714cf51372a49bbef2.jpg 😀
Tak kdyz se ty leskle povrchy trochu ‚uspini‘ at to nezrcadli tak okate, tak ty efekty budou super.
Maudit opět nezklamal. 🤣
Jestli myslis tim „nezklamal“, ze jsem vyprudil vsechny ty AMD prdy tady do ruda, tak mas pravdu 😉 Ale ten jejich nekontrolovanej rage mi to dost usnadnuje, vis co.
Mě opět zklamal tabletový styl cnews / wordpres, takže v 21 století nedokážu rozklíčovat kdo komu na co odpovídá a tím pro mě diskuze skončila, protože s vtom nedá vyznat.
To máš jedno. Tolik sraček, co tu vyplodili místní borci, nemá ani smysl číst. Když už i Olšan postuje ko*otiny z redditu, tak je to smutné 🙂
Já myslel, že to ty flamy trochu odlehčí, to bylo samozřejmě jenom pro pobavení, jestli tedy myslíš tu ray tracigovou pleš 🙂
Vsem, kterym se nezda, ze jsou dnesni grafiky predrazeny, specialne Komplik :)) … v roce 2007 jsem kupoval ATI HD 3870 za nejakych 7500,-kc. V ty dobe to byl High end, nejvyssi model ATI. Nejrychlejsi karta na thu byla GF 8800 Ultra, cca o 25% jeste rychlejsi.
Ted si to srovnejte s dnesnima cenama, pro jednoduchost, pokud by to byl ekvivalent nove vydane GF 2080..ktera stoji kolik… 22000,-k… coz je temer 3x tolik.
Cili dnesni nejrychlejsi manstramova karta typu 1060 je cenove na urovni highendu z roku 2007…
Radeon 9800 Pro 9.500
Radeon X850XT 11.500
GeForce GTX570 7.500
GeForce GTX1070 12.100
—
Si dela NVidia prdel s tema cenama ted, s tim at jdou do hajzlu.
Rok 2007 .. rust kupni sily a inflace ti nic nerika, Tombomino? Ze ty jsi jeden z tech komousu, co si stezuje, ze driv stal rohlik 20 haleru ..
Ale to vis ze jo mauditku..ono je to sice presne naopak, protoze v te dobe stal dolar cca 34kc a inflace se utcite taky nezvysila 3x..
Ale co cekat od vola jako jsi ty za prispevek..
tady jasně ukázal jak je tombmimino úplně mimo.
Tady ti posílám z excelu růst kupní síly peněz ~10% ročně.
2007 7500
2008 8250
2009 9075
2010 9982,5
2011 10980,75
2012 12078,825
2013 13286,70
2014 14615,37
2015 16076,91
2016 17684,60
2017 19453,06
2018 21398,37
2019 23538,21
2020 25892,03
Takže letos by za stejně výkonej high-end zaplatil 21.398 na to že je osmej měsíc to krásně sedí na 22.840,-Kč, takže nVidia je ještě o 840kč levnější než ta tvoje AMD tenkrát…. no looooooooooooolllllllllllllllllllllll
Jasne Crha..a v ty tabukce to je jako schovany kde a v cem?
Ja myslel, ze kdyz dovazis neco ze zahranici, tak se prepocitava cena dle kurzu plus nejaky koeficient za dph atd.
Co to ma spolecneho s tou tabulkou nechapu. Chces tim snad rict ‚ ze sila dolaru‘ od te doby 3x klesla?
vČR je to cca 30% za 10 let.
Kazdy normalne myslici clovek vi co vydelaval pred 10 lety, co vydelava dneska, jaka je rocni inflace a jaky kurs vuci dolaru.
To 3x nadobne navyseni se neda okecat jinak nez tim, ze to zdrazilo, at uz je duvod kdekoliv.
Akorat mistni trubky v tom zase budou hledat neco jineho.
Oprava: jsem se uklikl, dolar stal cca 21kc. Takze vicemene stejne jako dneska.
Cili zaver je uplne stejny. Karty zdrazili, at uz ma na tom podil cokolov
😀 právě si vyhrál zaltů cenů dementa roku!
tombomino 23.8.2018 at 22:12:
„Ja myslel, ze kdyz dovazis neco ze zahranici, tak se prepocitava cena dle kurzu plus nejaky koeficient za dph atd.
Co to ma spolecneho s tou tabulkou nechapu. Chces tim snad rict ‚ ze sila dolaru‘ od te doby 3x klesla?“
tombomino 23.8.2018 at 22:08:
„Oprava: jsem se uklikl, dolar stal cca 21kc. Takze vicemene stejne jako dneska.
Cili zaver je uplne stejny. Karty zdrazili, at uz ma na tom podil cokolov“
VÁŠ ŘÁD MÁTE ULOŽEN V ČESTNÉM ALBU PANA CRHY:
https://img29.rajce.idnes.cz/d2901/15/15316/15316299_d908397add4d30b3605a23efc60530cc/images/crha-dementroku.jpg
HD3870 byla vyrabena 55 nm procesem. A zlata era levnych karet bohuzel skoncila s prechodem ze 40 nm na 28 nm.
HD6970 na 40 nm stala 369 USD ale nastupce HD7970 na 28 nm stala uz 550 USD. U Nvidie byl prechod na 28 nm prakticky stejny skok.
Takze hlavni pricinou je cena vyrobniho procesu, ktera je porad vyssi a vyssi. Pred 28 nm nebyly ty rozdily v cene procesu tak velike, nebyly takove skoky.
To je samozrejme mozne a bodou tam i treba dalsi drazsi vstupy. Nicmene mne by zajimala napr.velikost marzi jak vyrobce chipu, tak karet tenkrat a dnes.
Nechápu jednu věc, proč socky z Diitu v čele s generálem Tynýtem a jeho pravou rukou Tombinem, kteří si maximálně koupí AMD toaletní papír, což je velmi kvalitní výrobek, který nemá konkurenci. Neušpiní, brousí, sám se zničí, tady otravují normální lidi, kteří mají na to aby si koupili normální výrobky a technologické špičky jiného výrobce.
Dusanku ty toho nebudes chapat vic..
Uz jsi nekde postnul tu adresu, at ae nekdo muze prijit podivat k tobe domu na ty tisicovky? 😉
Ty na tom budeš opravdu špatně, myslím finančně. Problém je v tom že se v rámci uvádění a zajišťování diskoték pořád přesunuji, ale dost často jsem doma v Chebu, tam mě není problém najít. Ptej se DJ Laco a jistě mě najdeš i s penízky, a ničeho se neboj, jsme velmi přátelští.
Tohle jsi mixoval ty? https://www.youtube.com/watch?v=x3LlCdPMulA
nic proti, na základce ze třiceti děcek bylo 18 cigánských, a nemám problém jít tady po cejlu v noci, ale ten tvůj mix mi trhá uši.
P. Olšan, ještě bych chtěl tímto poděkovat za kvalitní články Vámi sepsané, jste momentálně jediný web kde to má úroveň, i PC Tuning začíná být žumpou, která se řítí do hlubin všech žump.
Moc nerozumím tomu DLSS. Jako, že v NVIDII natrénuje AI nějakou hru, vybleje z toho pár giga nějakejch dat pro tu hru, a ja pak budu hrát v menším rozlišení a tensor core, mi podle těch dat budou rekonstruovat low res render do nějakejch 4K?
Ze začárku jsem to chápal tak, že misto klasickejch jader budou vyhlazovat tensor cores , podle nějakejch natrénovanejch postupů. To mi přišlocelkem logický a šikovný. Ale ten upscale mi přijde nějakej přitaženej za vlasy.
Jestli je to opravdu upscaling, jak si myslím, že je /jak to vypadá, že je, tak je to vcelku jednoduché.
Nvidia má u sebe na serverech nějaké sady obrazových dat z her, na kterých natrénuje algoritmus pro upscaling (trénuje neuronovou síť s požadavkem, aby z nekvalitní verze udělala obrázek s co nejmenším rozdílem třeba v psnr proti kvalitní verzi), který je na principu neuronové sítě. To v principu není nic zvláštního nebo nového, stejně byl vytvořen a funguje třeba filtr NNEDI3 pro aviysynth (který je i v MadVR pro upscaling videa).
K uživateli na počítač se distribuuje jenom vytrénovaná síť, což budou řádově jenom megabajty data. Ten algoritmus/neuronová síť se pak natáhnou do grafické karty při hraní a aplikují se jako filtr na každý snímek.
Natrénované to může být buď obecně na genericky na nějaké sbírce her, ale je tu i možnost, aby Nvidia udělala trénink zvlášť pro jednotlivé hry, třeba významné áčkové tituly. Pak by to u nich mělo mít o něco lepší kvalitu, s trochou štěstí.
Neuronové sítě jsou takové brute-force black-box řešení na podobné problémy a upscaling jim jde relativně dobře, viz to NNEDI3. Takže to bude lepší, než kdyby se škálovalo nějakou běžnou obyčejnou metodou (lanczos, bicubic). Ale rovnocenné s nativním vykreslováním na tom rozlišení to být nemůže z podstaty věci.
Dotaz.. a neni to spis treba tak, ze skalovani „obyc metodou“, pokud se vezme s co nejpresnejsim matem. model je prilis narocne? Proto obezlicka s AI, kdy aplikace „filtru“ bude mene narocna?
Obyčenou metodou myslím klasické převzorkování, které má různé artefakty (blur, aliasing, ringing), ale zachovává taky takový celkem přirozený vzhled, nic moc nezkresluje nebo nedeformuje. Takovéhle převzorkování není dneska moc náročné, ale hlavně taky pro něj možná GPU mají i nějaký speciální blok kvůli přehrávání videa.
Cokoliv používající „AI“ (tj. ty neuronové sítě) je proti tomu výpočetně o hodně náročnější (počítám, že když se využijí ty tensor jádra, tak by to mohlo být blízké tomu hardwrovému obyčejnému škálování) než běžné převrzorkování. Jako bonus ale je, že takovýhle uspcaler je o dost kreativnější – může ten obraz přiostřovat, odstraňovat ty artefakty z přeškálování a tak podobně. To ale může být i slabina, filtry „vylepšující“ obraz se kolikrát zvrhnou a naopak někde věci kazí, zvlášť když je to interpolátor, který se snaží „uhodnout“ pixely, které ve vstupu nejsou…
Můžete třeba zkusit tohle, to je taky IIRC takový zvětšovač obrázků na bázi předtrénované neuronové sítě: http://waifu2x.udp.jp/
(Ale samozřejmě natrénovaný pro jiné věci, takže se to bude chovat úplně jinak, než ten filtr Nvidie). Můžete to skusit srovnat s tím, jak vypadá obrázek zvětšený 2X běžnou metodou. Z tohohle wifu2x vyleze něco ostřejšího, vyčištěného, ale také jsou v tom ty menší detaily někdy dost podeformované. Ta neuronová síť prostě dokáže udělat mnohem víc, než jen to obyčejné přeškálování.
NNEDI3 v MadVR iirc až takové psí kusy nedělá, ale třeba u obrázku s trávou se taky může projevit ten sklon k deformování.
No nějak mi nesedí to udělat z 1 pixelu 4 , par megovej neural snapshot podle mne nemá šanci to dopočítat bez nějakýho odpovídajícího katalogu. Něco jinyho je prostě nějakej generickej deinterlacer, kterej ty pixle taky nevykoumá jen to adaptivně dopočítá podle nějakýho statistickýho naučení z různejch variant různě širokýho okolí.
Když použiju mip textur odpovídající 1080 ve 4K , tak je to prostě znát. ALe uvidíme ve výsledku co to opravdu bude a jak to bude fungovat.
Huang tam doslova rika z 1440 na 4k, neni to z fhd.
Spíš si myslím, že to bude nějakej prostě naučenej vytuněnej antialiasing.
Tomu by odpovídalo i to učení na tom 8k a víc, že to má vlastně nahradit metodu, které se používala, že vyrenduju ve 2x větším rozlišení a pak to pro výsledek zmenším.
No jo, ale to stojí spoustu výkonu navíc, kdežto toto ho šetří.