První GeForce RTX s DXR ray tracingem jsou tu: RTX 2070, 2080 a Ti. Ale za vysoké ceny

239

Včera přišel 20. srpen, což kromě připomínky, jak málo už zbývá z prázdnin, také byl den, na který Nvidia naplánovala velkou veřejnou akci, na které podle očekávání došlo k odhalení nové generace herních grafik GeForce, založených na GPU Turing. Nvidia tuto novou architekturu představila z pohledu profi grafiky už minulý týden na Siggraphu. Ale nyní nastal čas ukázat, zač toho bude loket v herních kartách, což se odehrálo na veřejné prezentaci „BeForTheGame“, která údajně byla jedna z největších nebo úplně největších, jaké zatím Nvidia uspořádala.

Předchozí
Následující

Ray tracing na Turingu: zatím s trochou aproximace

Jak už víme od Siggraphu, velkou novinkou GPU Turing je podpora pro ray tracingovou grafiku, pro kterou mají tato GPU fixní hardware akcelerující některé výpočty – takzvaná RT jádra (RT cores). Jejich úlohou je urychlit inherentně velmi náročné výpočty ray tracingu, aby bylo možné je využívat pro standardní herní grafiku – nebo alespoň pro její část. Nyní spolu s odhalením karet GeForce RTX Nvidia prozradila, jak to s oním vykreslováním v reálném čase bude.

Jak už to chodí, v první generaci hardwaru s něčím podobně novým bývá podpora pro onu převratnou technologii trochu „pilotní“ a skutečně bezproblémově praktickou se stane až po pár dalších generacích. Zda to tak bude i u ray tracingu v GPU, to zatím nevíme. Ale co už asi jasné je: Turing ještě nebude kartou, která by dokázala utáhnout ray tracing standardně při dnes používaných rozlišeních – pro jeho použití se budou muset používat zkratky.

Slajd s popisem čipu Turing (Zdroj: VideoCardz)
Slajd s popisem čipu Turing (Zdroj: VideoCardz)

Zdá se, že tou hlavní zkratkou bude použití filtrů na bázi neuronových sítí. Nvidia již na jaře při oznámení DirectX Raytracingu tuto novinku avizovala pro GPU Volta, používá totiž Tensor Cores. A protože Tensor Cores jsou i v Turingu, bude právě tato technologie stěžejní pro ray tracing. O co jde? Při výpočtu ray tracingu je pro kvalitu zásadní, kolik paprsků světla na scéně analyzujeme, ovšem každý paprsek stojí výkon – podobně jako pixel při klasickém vykreslování. Pokud snížíme rozlišení, je klasická grafika rychlejší. A pokud zredukujeme počet paprsků, je zase ray tracing rychlejší. Ovšem toto má dopad na kvalitu – v tradiční grafice dostanete pixelizaci, viditelný hrubý rastr bodů. V ray tracingu je to podobné, ale primárním jevem je, že obraz trpí šumem – nedostatek paprsků vytváří pixely, které nemají správný odstín. Humorně to ilustruje tento aktuální vtip z twitteru.

ray-tracing-noise-vtip
Zatímco rasterizace s nízkým rozlišením trpí pixelizací, u ray tracingu vede malé množství propočítaných paprsků světla k šumu (Zdroj: Twitter)

Ono zapojení umělé inteligence je jednoduché. Nvidia sestavila sadu dat sestávající se z obrazů vyrenderovaných kvalitně s velkým množstvím paprsků a stejných obrazů s nižší kvalitou a oním šumem. Poté na těchto datech vytrénovala filtr na bázi neuronových sítí, který se snaží interpolovat nekvalitní obraz tak, aby vypadal jako ten kvalitní – jde tedy o odšumovací interpolátor na bázi strojového učení. Nvidia tomuto filtru přezdívá DLSS, Deep Learning Super-Sampling.

Předtrénovaný postprocesing pro zakrytí nedostatků

Tento efekt se používá jako post-processing a pro jeho výpočty běží na tensor cores v GPU Turing. Efekt je to vlastně podobný, jako kdybyste vykreslovali tradiční grafiku s nízkým rozlišením a poté aplikovali postprocessing s vytrénovaným interpolátorem provádějícím upscaling na vyšší rozlišení. Výsledek bude ostřejší a více „koukatelný“, ale jak už to u podobných filtrů chodí, nebude zdaleka vypadat tak dobře, jako by vypadal reálný obraz s plnou mírou detailů. Paralelu lze vztáhnout třeba i k technikám vykreslování jako je Checkerbox rendering na konzolích, kde také jde o redukci vykreslovaného rozlišení a interpolaci chybějící informace.

Příklad toho, jak vypadá nedokonalý ray tracing se šumem a jak by ideálně mohla vypadat interpolovaná verze odšuměná filtrem Nvidie, mělo by jít o software Optix 5.0 (Zdroj: Sam Lapere)
Příklad toho, jak vypadá nedokonalý ray tracing se šumem a jak by ideálně mohla vypadat interpolovaná verze odšuměná filtrem Nvidie, mělo by jít o software OptiX 5.0 (Zdroj: Sam Lapere)

Při dnešních možnostech hardwaru je ale asi tento přístup nutný a tento filtr bude zdá se bude hrát velkou roli v tom, jak budou Turingy ray tracing zvládat. Díky tomu, že skutečný ray tracing bude prováděn s podstatně nižším množstvím paprsků, bude možné právě dosáhnout vykreslování v reálném čase. Čas, který GPU bude potřebovat k použití filtru DLSS, bude totiž mnohem kratší, než co by potřebovalo reálné dopočítání scény na plnou kvalitu. Jak velký bude dopad na kvalitu a zda se třeba neobjeví artefakty, kterými rasterizační grafika netrpí, to také teprve uvidíme, až bude možné podrobně analyzovat obraz ve hrách.

Jak ray tracing vypadá?

Na akci Nvidia ukazovala několik dem a ukázek z her, které mají nějaké použití ray tracingu přinést (Shadow of the Tomb Raider, Metro Exodus, Battlefield V). Z těchto dem vyplývá, že přínos pro kvalitu obrazu bude v osvětlení a ve stínech. Ray tracing za cenu vysoké náročnosti kvalitně simuluje odlesky a odrazy (včetně odrazu v zrcadle) a umí vytvořit realisticky vypadající stíny. V ukázkách to vypadalo velmi pěkně, ale závěry si samozřejmě bude třeba udělat až v praxi.

Ray tracing naopak zachovává klasické polygonové modely a textury 3D scény, takže pokud jste čekali, že už věci budou „kulaté a ne hranaté“, tak toto ray tracing nemění. (To jen tak pro pořádek, protože jsem se s touto otázkou setkal.)

Článek pokračuje na další straně specifikacemi nových karet GeForce RTX.

Předchozí
Následující

239 KOMENTÁŘE

  1. Mam za to ze vykon docela jasne padl na zaver, jen tak mezi reci. 2070 je rychlejsi nez titanxp a nebyl tim mysleny raytracing, tam je to nasobne vice. To celkem odpovida odhadum, kdy se mluvilo o cca 50% vykonu navic. Dava to smysl.

    Jinak ceny. Treba alza zacina predprodej od 32600 za 2080ti. Nevahal jsem.

    • No možná mi to uteklo ale já zaregistroval jenom to srovnání v RT, nic o výkonu v standardní grafice, proto jsem to tam tak napsal. Uvidíme, no, přece jenom by to asi potřebovalo docela významný architektonická zlepšení když se podívám na ty počty jednotek u RTX 2070 a u TXp.

        • Nedáva to žiaden zmysel. Pri RTX on možno, inak to je nemožné
          TitanXp – 3840 CUDA na 1600Mhz
          GTX 2070 FE- 2304 CUDA na 1710Mhz
          Zatiaľ všetko nasvedčuje, že Turing je mierne vylepšená Volta s hlavným ťahákom RT jednotkami. Ako vieme, výkon Titana V nie je žiadne terno v pomere s CUDA = žiadne veľké IPC zmeny.
          Nato aby GTX 2070 vôbec dorovnala výkon TitanuXP by muselo prísť zlepšenie IPC o desiatky %.

          • Netreba zabúdať ani na Tensor cores. Tie tiež doteraz neboli v GPU pre bežných ludí. To dáva možnosť využívať DNN resp. ANN aj v iných oblastiach ako v hrách. Aj keď pre bežných ludí to bude iba v hrách.

            • Ono je to pro bezne lidi jednoduche pocitani – Turing prinesl o nekolik levelu vyssi obrazovou kvalitu a o level vyssi vykon. AMD karty nemaji ani zdaleka takovy vykon, ale jeste hur pro ne, I kdyby nejakou nahodou vykon dohnaly, nebudou mit ani zdaleka takovou obrazovou kvalitu.

              Zajimalo by me, jak to recenzenti budou merit. Uz to nebude jen o porovnani fps versus fps, protoze grafiky jednoho vyrobce (Nvidia) budou navic renderovat v kvalite nedosazitelne pro druheho vyrobce (AMD). Proste na AMD grafikach ty hry budou vypadat o dost hnusneji, I kdyby na krasne mely stejne fps.

            • A mauditku, kde mas nejake porovnani obrazove kvality..co troliku. Ja jsem nikde jeste zadne testy nevidel, ale treba jsi napred jako vzdycky 😉

            • @tombomino: Dá sa vychádzať z prezentácie, kde rozdiely v kvalite boli velké. Verím tomu, že to tak buyde aj v hrách v predaji.

            • Prvni 2 videa jsem vdel, nevidim nikde ale porovnani RT vs rasterizace.

            • Nevim jestli jsem jediny..ale ta ukazka BF mi prisla docela prepalena. Jako demo te technologie pekny, ale realisticky obraz to ve mne opravdu nevzbuzovalo.

            • No to je jasny, ze zrovna v tobe to nebude nic vzbuzovat. To od AMD fans ani nikdo neceka 😉

            • Hele mauditku, umis taky napsat nejaky jiny komentar, kde
              – si nevymyslis
              – nelzes
              – kde nepises o AMD fans
              – kde pises k veci
              – kde slepe neadorujes jednu znacku
              ?

            • Ja vim, ze tvuj mozek v ramci pudu sebezachovy ty informace filtruje a samozrejme, ze si to racionalizujes jako lzi a janevimcojeste. Opet opakuju – nikdo nic jinyho necekal ani od tebe, ani od ostatnich takovych mamlasu. Vsak na obou ceskych AMD webech je to uplne stejny – potoky slz. Zvlast ten Stach, ten jestli vcera/dneska neco nerozmlatil, tak to by byl zazrak 😉

    • Předobjednávat teď na alze za 35-37 tisíc (Inno3D modely nepočítám) je naprostá kravina. Přepočet doporučené ceny je něco přes 27 tisíc, reálně pro běžné nereference řekněmes 28-29 tisíc, takže bych počkal až to někde klesne alespoň lehce pod 30 tisíc, protože víc je čistá zlodějina…

    • Za me dobry cenovy fail, at je vykon jakyuzchce. A bude jeste hur, kdyz ovecky beci a poslusne kupuji. Vyjimkou jsou jen profici, kteri asi nad cenou spis zaplacou. jak to Kozenak tlaci nahoru. Ja jsem jednou v zivote udelal GPU radost v podobe 1080Ti, dobry, ale znovu uz bych podobnou blbost neudelal, na to. co ta katta dokaze byla i zde ta cena priserna. Asi si tak nejak porad myslim, ze 3D akcelerace jde i levne a kvalitne… Kde je ta doba 3Dfx…

  2. Zase blbe pochopeno. Raytracing nebude zpusobovat sum, protoze pro kazdy pixel bude pouzity alespon jeden paprsek. I v te prezentaci to bylo zmineno. Pes je zakopany jinde – treba difuze je schopnost materialu odrazet paprsky svetla ruznymi smery, tzn. ten jeden paprsek z obrazovkoveho bodu, kdyz dopadne na trojuhelnik, by se mel zmnohonasobit a mel by se prozkoukam se facto skoro kazdy mozny obraz. Ta redukce paprsku bude probihat prave na tehle urovni, protoze tam se nejvice usetri (pocet paprsku by jinak rostl exponencialne s kazdym odrazem). Nebudou se tedy dopocitavat chybejici pixely, ale pomoci AI se bude zvysovat kvalita informace, ziskane se zmensenym poctem odrazu (opet zmineno v keynote). K tomu jeste dany filtr zahrnuje informaci z prechozich snimku – proto to slovo temporal – a je v tomhle ohledu stabilni (temporally stable). Opravte si to.

      • RT lúče nedopadajú na pixely. Oni sa z pixelov vysielajú a hľadajú objekt s ktorým sa pretnú a následne rozmnožia a odrazia. Na základe všetkých odrazov (ich počet je rekurzívne určený danou hĺbkou do ktorej sa môže ísť) sa potom vypočíta výsledná farba pixelu. Okrem toho čo píše Maudit sa vďaka AI nielenže bude zvyšovať kvalita informácií získaných z daných lúčov, ale bude možné renderovať obraz v nižšom rozlíšení a AI z neho vytvorí obraz vo vyššom rozlíšení s čo najvernejšou kvalitou. Huang to ukazoval a výsledok vyzeral parádne.

      • Na pixely nic nedopada. Z obrazovky se paprsky prave vysilaji. To mimo jine znamena, ze prostorove/objektove bude obraz naprosto presny a maximalne ostry a v plnem rozliseni. 4k bude skutecne 4k, ne nejaky prevzorkovany upscalovany shit. AI bude jen vylepsovat informaci o barve pixelu. Jak rikam, opravte si to.

        • Aby bylo uplne jasno – 4k, tzn. 3840 × 2160 je celkem 8 294 400 pixelu. Pri 10 Gigarays / sekundu by novy RTX cip dokazal udelat 1205 fps (301 fps pro 8k). Zakladni obraz tak muze byt kompletne raytraced bez jakychkoliv kompromisu.

          • Maudit> Samozrejme, na tej RTX by mohla Nvidia rozbehnúť „komplet raytraced“ ukážky v 4k pri stovkách fps kedy sa im zachce…. Akurát že, práve teraz sa im nechce… a ani nikomu inému. Druhá možnosť by bola, že si vedľa ako jedľa… asi sa im skrátka nechce, no.

            • To si asi nepochopil, zejo 😀 Vsichni ostatni pochopili, ze byla rec o prvnim levely paprsku, tzn. bez odrazu 😉

            • Maudit> Je možné, že všetkým ostatným bolo jasné, že pod pojmom „kompletne raytraced bez jakychkoliv kompromisu“ si mal na mysli scénu bez akejkoľvek geometrie/partiklov, alebo komplet bez svetelných zdrojov (black screen). 😀

              BTW: Bez znalosti detailov, čo ten papierový údaj 10 Grays/s znamená sa nedajú robiť také závery ako robíš. Pokojne môže byť myslené aj 10 Giga_kalkulácií priesečníkov paprsku s trojuholníkom za sekundu. Pretože množstvo geometrie hrá dosť podstatnú úlohu… Podľa mňa máš veľmi skreslený a zjednodušený pohľad na raytracing.

            • Takze ja tam pomerne jasne zminuju pocet pixelu na 4k obrazovce a tim vydelim onech 10 Gigarays/s a ipkopifko si nejak nepochopitelne dosadi, ze to melo obsahovat i odrazy? LOL Cil byl jasny a uz I nekolikrat popsany, ale pro pomalejsi – stezejni problem raytracingu neni prvni level bez odrazu, ale prave nasledne odrazy, ktere pocet paprsku s kazdym dalsim odrazem exponencialne zvetsuji. Zakladni obraz bude vzdycky vykresleny naprosto presne a bez kompromisu v podobe nejakeho upscalingu, atd. .. 😉

            • Ja som o odrazoch nenapísal ani slovo. 😉 Buď si prečítaš čo som napísal a pochopíš to, alebo… alebo nič.

            • „Pri 10 Gigarays / sekundu by novy RTX cip dokazal udelat 1205 fps (301 fps pro 8k). Zakladni obraz tak muze byt kompletne raytraced bez jakychkoliv kompromisu.“

              😀 😀
              Z toho už se nevykecáš. 😀

            • Potom evidentne, „zakladni obraz“ podľa Maudita je scéna prostá akejkoľvek geometrie a svetelných zdrojov.

              Zakúpením „základného modelu novej Oktávky“ získate kľúčik do zapaľovania… ostatné len za príplatok. Yeah!

            • Helet ja nejsem zodpovednej za vasi omezenou mozkovou kapacitu. Nektery veci uz pod urcitou uroven nejdou zjednodusit 😉 Takze jestli nechapete, ze prvni uroven paprsku trackovanejch z obrazovky vykresli kompletni gemetrii sceny (s maximalni intezitou barvy pixelu daneho objektu, protoze se nepocita svetlo), tak to mate blby 😀 😀 😀

            • Maudit> Mohlo by ti byť jasné, že čo sa zobrazí keď sa nepočíta svetlo bude závisieť na konkrétnej implementácii/rendereri. 😉

              Zaujímavé je tiež, že podľa teba „kompletne raytraced bez jakychkoliv kompromisu“ znamená bez svetla. Pozri sa čo tu produkuješ a použi svoju neobmedzenú mozgovú kapacitu na zamyslenie sa…

              Asi si nečítal moje komentáre vyššie, ale bolo by dosť zaujímavé vedieť, čo presne znamená 10 Gigarays/s, lebo je tu veľa špekulácií. 😉

            • Maudit 22.8.2018 at 12:48
              „A to „zakladni obraz“ jsi prehledl, nebo co? LOL“

              Demagogie?

            • „Aby bylo uplne jasno – 4k, tzn. 3840 × 2160 je celkem 8 294 400 pixelu. Pri 10 Gigarays / sekundu by novy RTX cip dokazal udelat 1205 fps (301 fps pro 8k). Zakladni obraz tak muze byt kompletne raytraced bez jakychkoliv kompromisu.“

              😉 ubrecenost AMD fans, kdyz je jejich firmicka tak brutalne pozadu, opravdu nema mezi 😀

            • Mě se na těch debatách líbí taková ta barvitá mluva. Jak se lidi lopotně snaží tam nadupat ten svůj význam do těch formulací, to vždycky prozrazuje ten vnitřní zápal 🙂

            • Jo, to me taky bavi – cist I psat 😉 Takovej malej e-thug svatek vzdycky jednou za dva roky, kdyz vyjdou novy grafiky 😀

        • Jo, pravda, směr při výpočtu je opačný. Světlo sice dopadá do pixelů (jako kdyby pixel byl receptor v oku), ale analyzuje se to zpětně, jako by paprsek vycházel z oka. Pardón. Ale myslím, že zrovna to na tom nebylo podstatné.

          • Maudit to popsal dobře, jen lidově, z kamery se pošlu paprsky, ty zachytí model, z modelu se zamyslí a zjistí, zda v odrazu je něco, co je vidět. To je klasika u portálů, kdy se zjišťuje, zda tam je vidět adresovaný portál. Ale to jsme trochu někde jinde.

          • Jeste je tu jedna zajimava vec – na DirectX Raytracingu spolupracovala Nvidia s Microsoftem (tzn. Nvidia ho do standardu protlacila, stejne tak jako do Vulkanu, dle prezentace). AMD se toho neucastnila.

            Ani bych se nedivil, kdyby pristi konzole od MS byla na Nvidia grafikach (CPU cast treba AMD??).

            • To je zatím jenom spekulace… (Microsoft zatím vždycky připravoval novinky v DirectX ve spolupráci se všema výrobcema GPU, takže bych spíš počítal s tím, že akceleraci bude mít i Intel, i AMD… třeba i Qualcomm/Adreno, ARM/Mali.)

            • Jasne ze je. Fraze „Ani bych se nedivil, kdyby“ rozhodne nevydava nic za fakt. Ale totalni neucast AMD na cemkoliv RT a naopak zvysena spoluprace Nvidie a MS je az podezrela. Jestli je navic pravda, ze vyvoj RT trval 10 let, tak bych neocekaval, ze vubec AMD jakykoliv RT bude realne podporovat (ted nemluvim o DXR fallbacku, ktery bude neuveritelne narocny, protoze se bude pocitat obecnymi jednotkami).

            • @janolsan

              Neucast AMD v cemkoliv RT-related spekulace neni. RT rozsireni treba ve Vulkanu ma prefixy _NV_ a zadna AMD alternativa tam vubec neni.

            • A když byl Vulkan stavěný na základě toho API od AMD, to jsi taky věřil, že to Nvidia nikdy nebude umět? 🙂 Nebo Intel, samozřejmě.
              Jinak teda obdivuju, kolik toho dokážeš vyčíst z těch omezenejch informací a vědět to úplně jistě.
              BTW těch 10 let je samozřejmě takový marketingový zveličení. Vzpomeň si, že Nvidia tvrdila, že RD Volty stálo 3 miliardy dolarů. Což je samozřejmě naprostá blbost ekonomicky, jsou to posčítané náklady na vývoj všech předchůdců a tak podobně. Tady do bude stejné. Marketing se musí trochu filtrovat (i když je to marketing Nvidie), a ne „když ji miluješ není co řešit“

            • Jane, co ty víš o vývoji Volty a co všechno bylo do těch 3 miliard zahrnuto? Přes miliardu mohl stát jen soft a kde je architektura a další … taky kdo ví kolik let na něm dělali a které platformy z Volty těží … „ekonomicky“ to vůbec nemusí být žádná blbost …

            • Nepotřebuju vědět nic, tři milirady by znamenalo, že to sežralo rozpočet na úplně všechno po celý tři roky zpátky, a to je samozřejmě kravina. Prostě sečetli náklady i na předchozí architektury, možná i spoustu dosavadních sw projektů, aby vylezlo úchvatné číslo.
              Náklady Nvidie známe, protože jsou ve finančních zprávách, a tuším že je tam i zvlášť RD, takže tohle se dá říct docela s jistotou.

            • Kdo rika, ze to AMD za par let nebude umet? Dulezite je, ze ted to neumi a vzhledem k tomu, ze se neucastnili rozsirovani danych API, tak to ani brzy nebude. Pokud uz by meli RT grafiky na ceste, urcite by se podileli aktivneji.

            • Pane Olsan, kde jste vzal, ze 3 miliardy na vyvoj Volty je ekonomicka blbost? Kdyz vezmu provozni naklady na jeden kvartal 600 milionu, tak za 5 kvartalu to tam je. Samozrejme aby me nekdo nechytal za slovo, tak vse urcite neslo do Volty, ale taky ji nedelali 15 mesicu, ale podstatne dele. Takze to cislo je urcite mozne.

            • A nic jinýho než tu Voltu těch pět kvartálů platit nebudou? Ovladače pro hry, čipy Tegra, nějaký ostatní GPU do roadmapy…
              A taky provozní náklady nejsou jen RD, ale taky marketing, platy, uklízení na záchodech a tak. Já myslím, že tady je vcelku evidentní, že je to trochu nadnesený.

            • Pane Olsan, proc myslite ze jsem tam psal „Samozrejme aby me nekdo nechytal za slovo, tak vse urcite neslo do Volty, ale taky ji nedelali 15 mesicu, ale podstatne dele.“?

              A vyvoj Volty trval nekolik roku. Nebo mate jine informace?

            • I kdyby to byly tři, čtyři roky, pořád to je hodně nereálné. (Taky čtyři roky zpátky před vydáním Volty ještě Nvidia byla o dost menší…)
              Sorry jestli ty moje formulace působily arogantně (to jsem nechtěl), ale mě to holt přijde evidentní…

            • Jan Olsan: A mne zas realne mozne. Ale o tom to je, nikde asi nemame sanci dohledat presna cisla.

            • Souhlasím s panem Olšanem, ty 3 miliardy jsou nadsazené číslo/respektive součet mnoha položek. Vždyť Volta je jen jedno GPU. Platili jen jedny masky. Kolik by pak stál vývoj Pascalu, když je tam 6 GPU (samozřejmě jednodušších, ale náklady na masky by měly být stejné)? 7 miliard?

            • Az na to, ze to nejsou jen naklady na masky, navic ty jsou minoritni zalezitost. Nejvetsi naklad jsou mzdy a Volta se pravdepodobne vyvijela velmi dlouho, pres nekolik generaci ostatnich karet. A Volta je pak zaklad pro aktualni prichazejici Touring.

            • Aznohh 22.8.2018 at 1:25
              „Speedy: oslovování 5. pád, učivo prvního stupně ZŠ“

              Diky! Konecne si tady toho nekdo vsimnul, mne je az smutno, jak nas narod negramotni.

            • Alich: Já tu neskutečně trpím… 80% lidí tu má prakticky co příspěvek to hrubka. Třeba klasika „by jste“ nebo i obyč. shoda přísudku s podmětem tu lidem dělá problém. Bolí mě z toho oči.

            • Já bych to v těch komentech hodně silně toleroval. Kolikrát se to člověk snaží napsat rychle, to okýnko je mrňavý, písmenka taky.
              Já třeba teoreticky znám pravidla pravopisu etc asi docela nadprůměrně (škola plus praxe), ale v praxi když nedávám pozor, tak na to prostě zapomínám nebo kolikrát se chytím, že na to natvrdo rezignuju (čárky ve vedlejších větách). A to mám ještě tu výsadu, že když to ve spěchu píšu rovnou z administrace, tak si to po sobě můžu opravit. Stejně to je větišnou dost katastrofa 🙂

  3. No, mohli fuknúť aspoň nejaké herné testy – takto je to také o ničom. Karty budú iste veľmi výkonné, dovolím si povedať že aj najslabšia RTX2070 prechčije Vegu 64 ale tak aspoň nejaké testy by bodli.

    A no ceny… 5-7-10 stoviek USD sú hrozné ceny a to nehovorím o teda sakra vysokých cenách Founders kariet… Nedovolím si povedať prečo je to tak, ale tak GDDR6 aj výroba niečo stojí ale mám pocit že dosť zapracovalo aj to že tie karty nebudú mať široko-ďaleko žiadnu konkurenciu a to pekne dlho.

    btw. neodpustím si rýpnutie – karty nemajú HBM, freesync a ani nebola ohlásená 107% podpora DX12 – pre niektorých sú to už teraz zbytočné karty aj keby bola 2080Ti 40% nad Titanom Xp pri rovnakej spotrebe 😀

    • Hold uznávání standardů není nic pro Nvidii. Než by přišla s plnou podporou DX12, Vulkanu, Freesync tak si vymyslí opět něco unikátního co podpoří masivním marketingem, jako třeba předražené GSync, či z historie Physx. Nicméně nutno uznat, že tento druh marketingu a vývoje jim vychází.

      Jinak ceny jsou prostě dány situací na trhu. Na skladech je stále spousta GTX karet a tak není žádný zájem dávat více výkonu za stejné ceny.

      • Ale prdlacjy. Raytracing je soucasti dx a pracovali na tom s ms. Pro vyvojare je rt vlhky sen, jednak skvely vizual a odpada vsechna ta fake svetla, vpalovane textury atd. Vyvojari to vyrazne urychli praci a vysledek je lepsi

        • Akorat, ze v soucasnosti je RT prace navic. Tudiz kazde studio/engine co to implementuje, tak pro ne to zatim nema efekt, ze tim neco usetri, ale naopak. Beztak to v spucasnosti bude i nejak sponzorovane NV pro rozjezd.

          • To ano, nemuzou si dovolit vydat hru ktera by vyuzivala jen RTX, musi tam byt alternativa pro starsi generace a RTX jen jako tresnicka.
            Pak je jeste otazka, co bude znamenat oznaceni GTX2060 a GTX2050(Ti). Jestli to nebude tak, ze tyto slabe karty nebudou uplne bez RT cores.

            • Ano, vidim to podobne. Zatim je RT ‚vejicka‘ pro nakup novych karet.
              Osobne si myslim, ze je skoda, jestli main stream primou podporu RT nedostane. Takhle to mohlo posunout vyuziti teto technologie rychleji.
              ps: @HWSpeedy..jsem potesen, ze je s Tebou i rozumna rec 🙂

            • Jenomze tam nejde o to, ze je to ‚prace navic‘, ale o to, ze to nekdo musi zaplatit. Vyvojova studia nejsou padle na hlavu a investuji penize tam, kde to ma pro ne nejaky prineseny bonus. RT zatim efekt pro ne na trhu krome reklamy zadny mit nebude, protoze podil karet s RT podporou bude i nasledujici 2 roky mizerny.. Tudiz bud jim to sponzoruje Nvidia a nebo to delaji pro to, aby si mohli dat marketingove ‚RT supported‘ na obal hry.
              Tohle je ciste pragmaticky postoj.

            • @tombomino: Každopádne je ale jasné, že postupne budú vývojárom odpadávať kvantá práce, ktorá sa presunie na GPU (nie samozrejme 1:1, aby ma tu niekto nechytal za slovíčka).

            • Postupne ano, ale kdy za 2-3 roky nejdriv…nebo minimalne, az vyjdou nove herni konzole. Snad do te doby bude i mainstream nejake RT schopen, jinak to zustane jako ‚nice to have‘ feature

            • Začať sa nejako musí. Predpokladám, že na 7nm už príde RT aj do mainstreamu. AMD do toho vlaku skočí určite tiež a naplno. NV si to teraz môže dovoliť aj na vyššom procese, ale neskôr aktualizujú aj mainstream. AMD by si asi ťažko mohlo teraz dovoliť predávať 754mm2 čip. Vidím to tak kvôli tomu, že RT je súčasťou DirectX.

    • Tak vega64 je na tom stejne jako 1080, takze pokud bude 2070 rychlejsi nez 1080, tak je to jasny.
      Nvidia umi narozdil od AMD tezit ze sve pozice na trhu..a zatim ji to technologicky fakt slape.
      Jinak co jsem videl komentare ve forech..tak zatim ty nove karty zabiji dost cena..krome fandu jako je Jirka samozrejme 😉

  4. Tak se zdá že koupi nové grafiky asi na nějakou chvíli odložím protože ty ceny jsou fakt masakr byl jsem ochotný za Ti variantu vyhodit něco málo přes 20K jako když vyšla 980Ti za 21K ale tohle je opravdu brutální cena.

  5. Mám z toho dost smíšené pocity.

    Pozitivně mě překvapil počet her, které budou RT v nejbližší době používat (kromě těch z ukázek tam promítli seznam dalších cca. 20 her, které to mají mít implementované), takže Nvidia si opravdu dobře zajistila, že nevydává nic „dopředu“ a ona technologie opravdu k něčemu téměř okamžitě bude.
    Stejně tak je výborná zpráva NVLink. Doufám, že opravdu bude fungovat tak, že se to bude hlásit jako jediná karta s 2x tolik VRAM i CUDA, tzn. bez nutnosti SLI profilů pro každou hru a přinese to nárůst výkonu blížící se dvojnásobku jedné karty.

    Co beru jako pochopitelné, že nemohlo dojít k většímu nárůstu počtu CUDA cores, protože když tolik prostoru zaberou RT jádra a Tensor Cores, tak už i tak jsou ty čipy obrovské. Byli nejspíš rádi, když tam při 12nm procesu vůbec nacpali to, co nacpali.
    Jenže kvůli tomu pak výkon v naprosté většině her (no i v těch s RT, protože ten je jen jako doplňující prvek) zřejmě nenaroste nijak hvězdně, ani zdaleka né jako to bylo u Pascalu, kde navíc extrémně vzrostly frekvence, což tady taky není, bohužel.
    Tzn. – pokud tam není nějaký zázračný nárůst u IPC architektury – tak na standardní renderovací grafiku to bude zřejmě jen takový refresh Pascalu, při těch cenách minimálně na začátku prakticky bez zlepšení poměru cena/výkon.
    Většina pokroku spočívá v RT a AI (TC), jenže i při relativně široké implementaci v nových hrách půjde zatím jen o doplněk…

    Přepálená cena se tak nějak čekala delší dobu, jenže jsem čekal, že za ní alespoň doručí 16GB GDDR6 VRAM v 2080 a 22/24GB v Titanu/2080Ti. Pokud by tam tolik VRAM bylo, tak asi řeknu, že cena je docela akceptovatelná a něčím podložená.

    Jenže při stejné VRAM jako u Pascalu jsou ty ceny podle mě plivnutí do tváře zákazníkům, jemněji to říci nejde. Od jara 2016 se toho na herním poli změnilo hodně a hry žerou VRAM čím dál víc. S 8GB je to možná „ještě pořád dost“, ale není to dost na „futureproof“ kartu a (téměř) vlajkovou loď s cenovkou 700-800 dolarů.
    Chápu, že ceny GDDR vyletěly a především na přelomu 2017/18 a GDDR6 levná vůbec nebude. Jenže při těchto cenovkách karet to není žádná výmluva, to se tam mělo vejít.

    Ale holt tu máme v hi-endu monopol, co se dá dělat. Čistě střílím, ale řekl bych je cena 2070 vyšší tak 100 dolarů, 2080 o 150, a 2080Ti o 200 dolarů, než by mohla být v případě tvrdé konkurence AMD v hi-endu.

    • Každopádně, já jsem se rozhodl, že Turing přeskočím. Přes známého mám možnost koupit novou 1080Ti MSI Armor za 18,5 tisíc, tak jdu do toho.
      Navíc mám použití pro svou aktuální 1070Ti (synovi se rozbila má stará GTX 770 a bude mít narozeniny 🙂 ).

      Čekal jsem co bude dnes představeno a při těch cenách si říkám, že se na příští cca 2 roky bez Ray Tracingu obejdu a počkám na Pascalu na 7nm generaci.
      A budu se modlit, aby do té doby AMD přislo s něčím pořádným v hi-endu, případně Intel vletěl s nějakou (nejlépe dumpingovou) bombou rovnou do hi-endu. Jinak by taky RTX 3080 mohla stát 1000 dolarů a RTX 3080Ti 1500 dolarů….

    • Tak dnes o vsechny narocne efekty se staraji cuda cores, nove to budou delat rt a tensor cores a cuda se ulehci. Nejnarocnejsi vveci jsou dnes svetla a stiny, to obstara raytracing. Vykon se tak zvedne jinou alokaci zateze. Nicmene i slusny posun rasterizacniho vykonuntam je. Viz demonze zacatku. 4k 60fps caple vsyncem, ktere na 1080ti bezi neco pres 30

        • ?
          Zdroj? Protože Eevee zvládne bez problému vyrenderovat scénu jen o něco málo hůře vypadající než ray tracing renderovací enginy https:­/­/www.youtube.com­/watch?v=HntAab0Z7tg https:­/­/www.youtube.com­/watch?v=hgS3BTkBct0
          A čas potřebný k vyrenderování stejné scény je 20-30x menší než u ray tracingového enginu.

          • To „o neco malo hure“ je dost klicove. Jak o neco malo? Fake global illumination, fake reflections, fake soft shadows – to proste neni ani pri nejmensim „jen o neco malo“. A rychlost raytracingu na CPU bych teda s RTX grafikama nesrovnaval. Ze je CPU raytracing mnohonasobne pomalejsi nez rasterizace, neni nic prekvapiveho. Uplne stejne muze ale ten rasterizacni vypocet v Eevee byt 20-30x pomalejsi, nez na dedikovanych RT cores.

            • Kdo tady mluví o rychlosti na CPU?
              Stejná scéna, v Cycles 6 minut, Eevee 10 sekund, renderováno tuším na 1080 Ti.

              A na to, že by RT cores zvládly plně ray tracingovou scénu 20-30x rychleji než Eevee můžeš zapomenout, to je snad ten nejvlhčí sen 😀 Vždyť to je odhad jak z říše snů, větší stupiditu nikdo neslyšel.
              Eevee zvládá render skoro (zas tak blízko k tomu není, ale dá se na to dívat) real time, což je na (nedodělaný) profi renderovací engine super. A vy tvrdíte, že RT cores zvládnou plně ray tracingovou scénu (bavíme se o profi scéně, žádná hra) ještě 20-30x rychleji 😀 Co se dozvíme příště? Animák od Disneyho vyrenderovaný za 15 sekund?
              Vrať se na zem, některé tvé odhady jsou úplně mimo.

              A ke kvalitě obrazu – pokud dvě fotky vypadají úplně stejně, ale jedna je vyfocená a druhá vyrenderovaná, znamená to že jedna je hezčí? Ne. Když fake osvětlení vyprodukuje stejnou scénu jako s ray tracingem, je jedno že to osvětlení je fake, protože vypadají stejně.

              Eevee samozřejmě nedosahuje kvality Cycles nabo Maya, ale daleko přesahuje úroveň grafiky kterou mají hry s RTX https://www.youtube.com/watch?v=BiWmB8mwP70
              Určitě bych netvrdil že RTX představuje kvalitu, které by pomocí rasterizace nešlo dosáhnout.

            • Hadam, ze jsi nevidel uvedeni Quadro RTX, kde se presne o tomhle mluvilo? Kde Huang ukazoval, o kolik rychleji ted profi studia budou moct renderovat a jak celou server farmu zmensi do dvou racku? Protoze si fakt nic z prstu necucam. Byl o tom clanek I tady. Hledat ho nebudu, to mas za domaci ukol.

  6. Jo a reknu vam, ze ve svetle Turingu nevypada Vega zase tak spatne,
    Je to podobne, nemam zajem o predrazenou Vegu, kdyz mi soucasne hry jedou na Pascalu lepe a nemam zahjem o predrazeny Turing, kdyz to stejne budouci RT hry nezvladne naplno a dneska jsou mi nejake RT Cores na hovno! Sorry, ale musel jsem to rict na plnou hubu, NVidia proste prestrelila a ja jim na to neskocim.

        • Taky dobry jak to 20.8 vydaji a 20.9 zacnou prodavat. Pro me jedinnou moznou variantu RTX2070 pak vydaji na konci zari a zacnou prodavat pred vanoci.

          Ty me tak vytocili, no nic Turing nezajem, zacnu se vic zajimat o AMD grafiky a pockam jestli nedopadne u AMD pristi vanoce to Navi.

          • Jenze tydyte, psat ze RT je k nicemu, protoze to podporuje jen NVidia je proste nesmysl.
            RT neni k nicemu, akorat na to grafiky nemaji vykon a zjevne grafiky, ktere si kupuje 95% hracu na to mit vykon jeste nekolik let nebudou.

          • Tynyt: Dobrý fóry. Skoč si na školení za Stachem 🙂 Ten celou noc probděl 😀 Chudáček. Určitě ti poradí vhodnou strategii jak nyní reagovat v diskuzích aby jsi nebyl za troubu.
            O RT víš kulové, což jsi prokázal už v tvém minulém postu.

            • Jj, jsem zvedav jake ted budou ty moderni hry, ktere se musi testovat a jake bude jejich nastaveni, zda se budou vypinat „nepotrebne“ featury. 😀 😀 😀

            • To si buď jistý že na AMD zůstanou vypnuty a na nvidii se pro jistotu zapnou 😀

              A nebo se moderní hry ani testovat nebudou, protože jsou už přiliš moderní a samozřejmě jakmile vyjde BF5 tak vyjde článek o tom jak je hra šíleně neoptimalizovaná a při zapnutém RTX sráží výkon i nvidia karet. atd. atd. 🙂 No bude to zábavné.

            • Je pozoruhodné, jak vy pošuci neustále zaujatě sledujete Stacha.
              Je to úplně jednoduché: počkáme si, jak to celé dopadne, pravda se ukáže sama.

            • Tak ona je celkem zábava kouknout jak se žije exotům v jiné dimenzi 😀

            • Joraell: Jj, stejne jako my vsichni posuci potrebujeme AMD jako konkurenci kvuli cenam, tak potrebujeme Stacha pro pobaveni. Bez nej by bylnas zivot naprosto sedy a nudny.

            • @hwspeedy

              To se vsad, ze Stach bude raytracing vypinat. Prece nenecha zapnute neco, co za a) offloaduje nejnarocnejsi efekty na RT cores, vyrazne tak ulehcujic praci pro CUDA cores a za b) prinasi obrovsky skok v kvalite obrazu. A pak nezapomen na jeho bulharskou konstantu (kterou jsem mel jednu dobu nutkani presne spocitat porovnanim jeho testu s presne temi samymi z jinych webu) 😀

              Nebo ty si toho mentala snad dokazes predstavit, jak rika „Takze RTX 2070 je o 45% rychlejsi, nez Vega 64 a zaroven prinasi o nekolik levelu vyssi kvalitu“? Ja ne.

              Jeste je taky moznost, ze do test suitu zadne RT hry neda, nebo tam da treba jednu, doufajic ze se realita ztrati v prumeru s ostatnimi .. 🙂 Tak psychicky nemocnej clovek jako on je schopnej vseho.

            • joraell: mně na to stačí exotiku od vás. 🙂
              Bohužel na PCT zřejmě odpojili Obříka, takže zábava je už jen poloviční. Teď zbývá už jen DD a vy.

    • Redmarxi co to placas. Mas tam 20 her co podporuji RT, z toho aspon 4 lze oznacit za 3A+. Vizualni efekt globalniho nasviceni je naprosto zrejmy, v dnesnim nedokonalem nahrazkovem shader provedeni je to nejdrazsi efekt, spolu s gradientnimi stiny ktere taky nahradi RT, a pod RT to bezi ve vice jak dvojansobnych fps. Po dlouhych letech je tu neco co skutecne funguje a je to videt, funguje to uz ted a implementovali to i studia, ktery rozhodne nemaji finance Bethesdy. I amd s pohledem stranou zamumlala podporu, protoze to je budoucnost.
      Co jako chces vic? Asynchronni shadery? 😀

    • Uz to vidim, klasicka masaz od NVidie, tam kde bude RT, to pobezi o 50% lepe nez lepsi model starsi generace, pak to da nejakech +25% na klasickem DX12 a vykon v DX10/11 bude +5%, coz uz nikde nereknou.
      Vzhledem k tomu jake hry hraju, tak at si tuhle marketingovou akci strci Huang ….

    • Je opravdu otazka vykonu novych karet ve starych klasickych hrach. Navic podle parametru TU104 a TU102 muze byt jejich vykon oproti GP102 naprosto rozdilny. Dovedu si predstavit, ze napriklad RTX2080 bude vykonem nastejno s GTX1080Ti ve starych hrach, ale cena protoze RTX.
      U vykonu bez RTX taky bude hodne zalezet na engine hry, zda je pro vykon lepsi vice SP a nizsi frekvence (1080Ti) nebo zda bude vyhodnejsi mene SP a vyssi frekvence (2080).

      • Ono, takto bych to řekl – výkonostní posun by byl naprosto dostatečný, pokud by RTX 2080 stála stejně, jako GTX 1080 a RTX 2080Ti jako GTX 1080Ti. Jenže ani náhodou nestojí, navíc v paměti je posun jen u propustnosti = poměr cena / výkon se vůbec nezlepšuje (minimálně tedy při uváděcích cenách) a to je prostě špatně.

        Ray Tracing je budoucnost, je to úžasná technologie. Jenže pro člověka, který si teď chce koupit kartu na další, řekněmes 2-4 roky, tak je to jen doplněk, který mu v pár hrách dá bonusový výkon a efekty, ale není to zatím to hlavní….

        • O pristich vanocich navi muzou byt od obou konkurencnich firem na trhu grafiky na 7nm, ktere mohou diky zmenseni procesu mit implementovano treba dvojnasobne vic RT jednotek. Tudiz soucasna generace Turing muze byt klidne od NVidie revolucni, ale pouzitelne to bude az na te pristi.

          Souhlasim teda, ze ceny jsou naprosot prestrelene. Jestli si mam koupit kvuli novym hram grafiku za 20.000 Kc nebo dokonce jeste o neco vic, tak musi bejt stoprocentni na dalsi ctyri roky a to se o Turingu v tuto chvili rozhodne rici neda.

          • Hodne se pletes Redmarxi. V te prezentaci Nvidia predstavila 21 her, ktere buoud RT podporovat de facto od realne dostupnosti Turingu. Co je ale MNOHEM dulezitejsi je, ze ty hry, ktere RT budou podporovat, jsou postavene na velkych a uspesnych enginech, ktere pouziva spousta dalsich her. Diky tomu se RT rozsiri velmi rychle.

            No ale hlavne ten vykon – pokud bude hra vuyzivat RT, tak ty nejnarocnejsi efekty, jako je osvetleni, stiny, prohlednosti, ambient occlusion, atd. bou pocitani mnohem efektivneji nez pred tim (na RT cores) a to s fotorealistickou kvalitou (pujde o skutecny odlesk, stin, atd. a ne o zadnou nahrazku). A to strasne moc ulehi praci klasickym CUDA cores. Narust vykonu u her, ktere boud RT vyuzivat, byt prave ocekaval dost dramaticky. Vsak I Jensen Huang to na prezentaci na konci rekl – RTX 2070 bude o dost rychlejsi nez Titan Xp.

            Podle me ten vykon schvalne taji, aby vytvorili dalsi hype vlnu a pak se na ni hezky projeli.

            • https://www.techradar.com/reviews/nvidia-geforce-rtx-2080-ti

              TombRaider 4k RT @60Hz

              Although we haven’t had the chance to benchmark the card thoroughly, we did get to play multiple PC games at 4K and in excess of 60 frames per second (fps) with the RTX 2080 Ti at Nvidia’s GeForce Gaming Celebration event at Gamescom 2018.

              Unfortunately, due to multiple non-disclosure agreements we signed, we can only tell you that Shadow of the Tomb Raider looks stunning with ray tracing turned on. Thanks to Nvidia’s RTX technology, shadows do indeed look more realistic – with different intensities everywhere depicted in a stony ruin in the rainforest. We also just gawked at the walls, looking them shimmer as light reflected and refracted off of them.
              Advertisement

              In terms of frame rate, Shadow of the Tomb Raider ran at a mostly consistent 50-57 fps, which is impressive giving the game is running on a single GPU and in such an early state – on top of all the new ray tracing techniques.

              We also played a variety of other PC games that shall not be named, and saw performance run in excess of 100 fps at 4K and Ultra settings.

            • @hnizdo To presne odpovida informacim, ktery mam ja. Buhvi jak ten dsogaming toho tombraidera testoval (jestli si to uplne nevymysleli).

            • @mareknr Tak uz je na strance dsogaming update.

              „UPDATE:
              The developers of Shadow of the Tomb Raider have responded to the lower than expected performance of the game on the GeForce RTX 2080Ti when using RTX. According to them, the current build of the game features an early work in progress version of NVIDIA’s tech, and the final version will run better.“

              Takze presne, oni to testovali s nejakou early dev verzi a jeste zjevne blbe, kdyz to TechRadaru vyslo o dost lip. Do vydani casu dost.

            • Maudit> Zas len trollíš, nevieme či techradar testoval inú verziu ako dosgaming. Navyše, techradar nič neukázal a vlastne ani nič presne nenapísal. Nepochybujem o tom, že je možná optimalizácia (možno aj na úkor kvality) aby to bežalo rýchlejšie, každopádne si počkám na recenzie finálnych produktov. 😉

            • Prave ze trolleni jde ted od AMD fans. Do vydani zbyva jeste mesic, tzn. jeste mesic na ladeni her i ovladacu. Je naprosto predcasne delat nejake zavery z dema, ktere melo za ukol hlavne ukazat posun v kvalite, ne vykon. Zvlast kdyz sami vyvojari pote upresnili, ze se rozhodne nejedna o finalni optimalizovanou verzi hry 😉

            • Ten TR tam běžel za zavřenými dveřmi s RTX, to je ten lagující ve FHD a pak tam běžel veřejně s vypnutým RTX, to je ten kolem 60FPS 4K. Je to v článku Anandatech. 😛

              Věřím, že to snad do vydání trochu poladí, ale jak se to tu Maudit s Hnízdem snaží žehlit, to je vtipné. Fanboy level 100 achieved! 😀

            • No pokud by si Hnízdo ten jeho článek přečetl pečlivě, tak by zjistil, že se v něm nikde nepíše, že ten Tomb Raider testovali s RT ve 4K. 😀

              Ale to by napřed musel Hnízdo sundal zelené brejličky, naučit se ignorovat reklamštinu a na prezentaci bez reálných dat se umět dívat trochu víc skepticky.

            • Vlhke sny Aznoha, ale jen do momentu, nez si uvedomi, ze SoTR bylo prezentovane I primo v keynote 😉

            • Azznohu, ifka neresit, momentalne zazivaji zivotni deziluzi a tezky butthurt. Jen totalni blbci a fanAtici jeste v temnem zoufalstvi veri, ze se nvidia pochlubi Rt technologii v tomb raiderovi, kde to pobezi na 35fps ve fullhd a ve 4k vubec na karte za 35kkc.
              Predobjednano Ti Trio, uz se tesim.

            • To je vtipny (ale klasika u AMD fans) jak si Aznoh tu realitu priohnul. Anandtech vubec nepise o nizkem fps, jen to tom, ze se tam semtam ukazaly framedrops. Ale framedrops neni to same, co nizky framerate. Framedrops znamena, ze jeden frame se oproti ostatnim opozdil a to casto byva spis zalezitost veci jako pomalejsiho nacitani modelu na komplexni scene (to se vetsinou pre-loaduje, ale to jeste nemusi byt implementovate), treba kdyz vylezes z jeskyne ven do sveta a najednou se ti zacnou nacitat stromy, hory, atd. a renderovat, treba navic jeste s environmentalnimi efekty. Vetsinou se do mapy davaji zone boundaries, ktere kdyz prekrocis, sputi nacitani dalsi zony. Diky tomu v momente, kdy do ni realne vlezes, uz mas v pameti vsechny textury a modely. Bez toho se vsechno zacne nacitat onthefly a pak z toho jsou framedropy. Anandtech redaktor poctive uvadi framedrops, nedela zadne zavery. Dokonce ve shrnuti na konci pise, ze je to predcasne, ze je jeste mesic do realne dostupnosti 😉 Takze presne to, co jsem rikal ja 😀 Sad, butthurt, crying? oh well. AMD ti treba koupi medvidka!

            • Ok, přibilo zde pár komentářu mezitím. Takže za:

              A) Hnízdo opět lže, protože já jsem tu nikde netvrdil, že finální TR pojede 35fps fhd, naopak píšu tu zcela jasně, že to do vydání poladí. Hnízdova 150x lež – žádné překvapení.

              B) Anand hrál to stejné co je zachyceno na videu a to na jednom ze dvou PC za stěnou, kde běžel TR FHD s RT a FPS padalo na 30. Takže žádné jen „framedrops“ jak se snaží nabulíkovat totální fanboy Maudit, ale prostě a jednoduše nízké FPS v určitých scénách (vybraných k prezentaci Nvidií). Vše zachyceno na videu. Zelení snílci si ale najdou nějakou výmluvu proč tomu tak není. 😀

              C) 15 let kupuji jen Nvidii, zpravidla nejsilnější model. Klasika těchto fanboyů je, pokud s nimi v čemkoliv nesouhlasíte, okamžitě vás označí za AMDčkáře. Je jedno, že o AMD nepíšu ani slovo, je jedno že AMD drbu úplně stejně jako NV, prostě jste černá ovce a nezapadáte do zeleného stáda. To, že mám Nvidii a i tak ji drbu je pro tyhle fanatiky naprosto nepochopitelné, ti prostě jdou ve stádě, nechají se opít rohlíkem z reklamštiny a vydávají za fakta něco, co jsou jen jejich domněnky. Ztracené duše. Ale upřímně jsou tou černou ovcí už i rád, s těmahle fanatikama se nedá normálně diskutovat a tak mě baví je dráždit.

              Já si kupuju 2080Ti, ale ne kvůli RT, to je jen pěkný gimmick, který najde uplatnění až v dalších generacích. Kupuju tu kartu kvůli výkonu navíc, který bude přesně dle mých předchozích očekáváních cca 25-40%

            • hnizdo> Heh, vidím že sa držíš svojho kréda a diskutuješ čiste fakticky a bez osobných útokov. 😉

              BTW: Ja raytracingu náhodou fandím, len nezdieľam to bezmedzné nadšenie podaktorých čo sa týka času jeho nasadenia.

            • Ale copak malypifko, poznal ses v mem zcela anonymne zamerenem prispevku? Dobre! 😀

            • Síce neviem o čom hovoríš, ale pokojne sa bav ďalej. 😉

              Už sa teším až sa budeš opäť dovolávať spravodlivosti, že sa s tebou nediskutuje slušne a že ti niekto przní nick.

            • Ja uz se slusnosti zde davno nedovolavam, zadna zde nepanuje. Pochopitelne mohu poukazat na srovnani, ze 😉

            • @aznoh
              „Anand hrál to stejné co je zachyceno na videu a to na jednom ze dvou PC za stěnou, kde běžel TR FHD s RT a FPS padalo na 30.“

              Kde Anandtech pise neco (cokoliv) o 30 fps??? DEJ SEM PRESNOU CAST V TOM CLANKU! Nikde. Pro jistotu pridavam link pro ostatni. Jedine co pisi je, ze si semtam vsiml framedropu.

              https://www.anandtech.com/show/13261/hands-on-with-the-geforce-rtx-2080-ti-realtime-raytracing

              Ten zbytek je legracni, jak vzdy. Stylem mi pripominas Soucka. Jsem si prakticky jistej, ze jses Soucek. A tomu by se zhroutil svet, kdyby se dotknul byt jen obalu od grafiky Nvidie 😀 Samozrejme ze jsi AMD fanboy, vsechno, co tu pises, to ukazuje. Ten fakt, ze si vubec vymyslis o jakychsi 30fps v Anandtech clanku, ktere tam VUBEC NIKDE nejsou zminene, ukazuje na zapsklyho malyho pindoura, bez spetky sebevedomi. Gratuluju 😉

            • Ano jsem Souček, ať už je to kdokoliv, Belka a DD a taky Babiš. Vše jedna osoba. Maudite pusť si to video TR, tam je FPS, víme?? Já nepsal že Anand píše o 30 fps, opět chybná interpretace psaného textu, jak je u vás fanatiků zvykem. Viz další článek a diskuse. 😀
              Vím, že teď brečíš, že 2080 není těch tvých 50% nad 1080Ti, doknce ani 40, ani 30, ani 20, ani 10, ale to přejde, víme? 😀

              Možná je to zklamání dobré vzít pozitivně a zbavit se toho fanboyství jednou pro vždy a brát grafiky jako spotřebák, jako každý dospělý člověk s trochou toho IQ. 😀

            • Helet a to ti neprijde divny, ze Anandtech pise „capped at 60fps with the graphics settings locked“ a to tebou zminovany video jde treba az k 70fps? Jak jako si muzes bejt jistej, jestli je to vubec stejnej stroj nebo jestli si s tim nekdo nepohral? Navic I ti typci na pcgameshardware.de jasne napsali, ze to je early alpha verze.

              Tounouci se proste stebla chyta 😉

            • Chápej, že já rozumím tomu že to je možná alpha verze a že to budou ladit. O tom vůbec nedebatuju. Já tu zpochybňuju vaše zmatená a nekonzistentní tvrzení, že to je fejk, za hodinu píšeš že to je alfa verze, za další hodinu zase něco jinýho atd… 😀

              To je prostě děsná sranda ten váš damage control. Co si třeba připustit, že RT v TR je momentálně trochu rozbitej a doufat, že se to podaří vyladit. 😀

          • 1080 byla vydaná za $599, FE za $699, tzn. o $100 levněji, než 2080 ($699/799). Ano, po vydání 1080Ti byla následně slevněná ještě o $100 na $499, na kterých aktuálně začíná 2070.

            1080Ti byla vydaná za $699 a to včetně FE! Ano, přišla až 10 měsíců po 1080, ale stejně když srovnám s $999/$1199 – to byla cena Maxwellovského, resp. Pascalového Titanu X… Zdražení o $300-500 je monstrózní.
            980Ti byla vydaná za $649

            1070 byla vydaná za $379 a FE za $449, po vydání 1080Ti byla slevněna na $349, 2070 je evedená za $499, FE za $599 – tzn. ještě větší zdražení jak u 2080!

            Jinak ty ceny v korunách nemá smysl takto porovnávat. Při vydání 1080 stál dolar cca 25Kč, navíc cena v českých e-shopech záleží i na dalších faktorech.

            • 1080Ti byla za 26000 tedy za 1000$, Kolik v té době stál tehdejší TitanX ? kterýho si má 1080Ti namazat na chleba?

            • Proboha, já tu píšu oficiální ceny při vydání, viz např.: https://www.cnews.cz/nvidia-uvadi-geforce-gtx-1080-ti-silnejsi-nez-titan-za-699-dolaru-starsi-gpu-zlevnila/

              To můžu taky říct, že aktálně je na alza 2080Ti za 32,5-37 tisíc Kč, tzn. po odečtení DPH a přepočtu na dolary je to cca $1200-1350! Ale to je kravina, jen alza napálila cenu.

              Btw – jsem si jistý, že loni v březnu začínala 1080Ti v českých eshopech na cca 22 tisících = při tehdejším kurzu 25,5Kč za dolar to vychází na $720. A během měsíce (ještě před těžební mánií) už tam byly FE modely i za 20,5-21 tisíc jak začal padat dolar proti Kč.

    • najlepšie je ako blábolil o tom Ako Vega je vlastne konkurenciu pre budúcu generáciu nVidia kariet – tak tu ju má, nech si porovnanie Vega 56/64 s RTX2070-2080Ti užije !

      …ale samozrejme nebol by to AMDD keby znova neotočil a najnovšie už situáciu zachraňuje 7nm VEGA 20 – len neviem ako môže konkurovať karta ktorá výjde tak za 6-9mesiacov a ktorá bude na napr. RTX 2080Ti pozerať pekne zdola.

    • A keby len on. Na DIIT je to ešte horšie. Tam v diskusii niektorí píšu neskutočné nezmysly. Samozrejme ide o osvedčených fandov AMD, ktorým nezáleží na grafike. :-). A najviac sa mi páčia tí, ktorí tvrdiam že rozdiely medzi RTX on a off je treba hľadať lupou. To už si pýta návštevu očnému.

        • Ak myslíš to od skavena, tak to nebol fake. Pozri si prezentáciu ešte raz od času 2:40.

          https://www.youtube.com/watch?v=IG2wVjQUr3c&feature=youtu.be

          RTX vypočíta osvetlenie reálnejšie. Ale samozrejme závisí to potom aj od polohy svetelného zdroja. Ak by bol viac do strany, tak rohy neboli tak tmavé. Keďže ale svietil z hora a priamo, tak to dopadlo tak ako sme videli. Pri rasterizácii (RTX off) sa ako barličky poiužívajú neviditeľné svetelné zdroje, ktoré ovplyvňujú osvetlenie v miestnosti. Budovanie niečoho takého by sa pri RTX nemuselo robiť. Ak by niekto argumentoval tým, že reálne by bola miestnosť viac osvietená, tak to je potom vecou implementácie RTX. To čo sme videli nie je ukážka absolútnych vlastností a jediného možného výstupu.

          • 2:42:10-20 máš to tam, jedno okno ti opravdu místnost neosvětlí. navíc tam vysvětloval, že v jednom rohu je světla víc a v druhém míň. Pusť si to ale v temné místnosti nebo až večer, teď přes den to splývá. ten rozdíl je vidět a docela zásadně. Nikoliv že scéna s RTX je černá jak bota a nic nevidíš.

            • No a tady ma prave zafungovat HDR. V momente, kdy vejdes do te mistnosti z venku, tak ma byt svet za oknem normalni a v mistnosti de facto tma (jako na RT on) ale po case, az se oci adaptuji, se ma obraz za oknem zmenit z normalniho na prejasneny a mistnost z tmave na o neco svetlejsi. To demo nemelo tenhle HDR prechod implementovany. V kazdem pripade ta scena nikdy nema vypadat tak, jak s RT off (tam jsou pouzita fake svetla na dosvetleni).

      • A klinec tomu dávajú vyhlásenia typu, že AMD ani nemusi reagovať lebo vlastne nie je na čo. Hehe. Od tých istých ludí, čo obviňovali NV, že nepodporuje DX12 (čo ani nie je pravda) a že tým brzdí pokrok. Z tejto logiky aj AMD brzdí pokrok, nie? A keď už ludia ako Stach kritizujú prezentáciu NV, ktorá sa previnila asi iba tým, že bola viac technikcy zameraná ako obvykle, by sa mali zamyslieť prečo nekritizovali AMD pri jej lapsusoch s poor Volta, Fixerom či rošliapavaním grafickej karty od NV. Proste ak má niekto čo ukázať, nepotrebuje pri tom ponižovať konkurenčné výrobky či zosmiešňovať konkurenciu.

      • Akorat Marku, mas snad venku hry, kde muzes porovnavat rozdily mezi rasterizaci a RT?
        Zatim nemas, takze nemuzes ani tvrdit, ze ten rozdil nebude pozorovany ‚lupou‘.
        Ja jsem vzdycky kazdymu treba rikal, ze nema cenu hrat hry, kdyz vypadaji jako pred 5 lety..a sam jsem dosel do stadia, kdy je pro mne zabavnost hry uz vyssi meritko nez vizualni stranka, kdyz ma nejaky rozumny level. Hykani nad kazdym stinem atd.mne jednoduse preslo a nema to nic spolecnyho s nalezitosti k te nebo one znacce. Vetsina mainstreamovych her mi prijde nudnych, jako pres kopirak, zvlast pak ‚battlefieldy‘ ktere nemaji ani single player. Radeji si zahraji nejakou blbost na mobilu, ktere ma casto bavi vic nez AAA titul za miliardu..
        Jako RT super, jsem rad, ze s tim nekdo vysel ven, protoze to je nejspis cesta o budouctna a nejak se zacit musi. Ale hykat nad tim, kdyz je to ve stadiu ‚demo efektu‘..sorry 🙂

        • Dovolim si tvrdit, ze to bude poznat na 100%. Vse bude nablejskane, vsude bude vode, vsechno se bude vsude odrazet. Proste nerealna marketingova maximalizace efektu. Vzpomenme par let zpet, kdy zacaly vznikat hry s odrazama, stinama, vode vsude.
          A udelat to stejne bez RTX by byl imho maximalni narez na hw.

          Dale by me ale zajimalo, zda ostatni karty budou zobrazovat hru klasicky a nebo v RT ale vyrazne omezenem. Protoze na prezentaci porovnavali vykon RTX OPS proti Pascalu a tak je otazka, zda karty bez RT cores taky zvladnou RTX ale jen velmi pomalu a nebo vubec. Neco jako matematicky kooprocesor, zde RTX procesor.

          • V principu souhlas. Nejak to museji odlisit, jinak by nebyl wow efekt. Podle meho laickeho nazoru, se to rozjede vic, az to doputuje do mainstreamu. Osobne si myslim, ze nova generace asi prinese vykon, jaky se dal realne ocekavat, ale skoda cen, ktere asi hodne nadsencu odradi.

        • Ja nijak nezatracujem hratelnosť a zábavnosť. Pokiaľ má byť hra dobrá, musí mať aj tieto 2 aspekty. Teraz sa ale bavíme iba o vizuále. A o tom RT je, ako iný spôsob renderovania. Nie je to o hýkaní nad každým tieňom, ale rozdiel v kvalite bol v herných ukážkach na prezentácii jasný. Dobrá grafika výrazne ovplyvňuje to, ako vnímaš prostredie hry a celkovú jej atmosféru. Ano, ide o subjektívne dojmy. Niečo ako bol svojho času GPU PhysX. Samozrejme je treba si počkať, kým tieto hry s RTX vídu a porovnať to priamo doma. Možno na prezentácii preháňali. Ja neviem. Ale dúfam, že to bude zodpovedať realite. Každopádne ukážky na prezentácii mali ďaleko iba od „demo efektov“.

          • Jo i ne Marku. Uricte jsem pro, at se grafika rozviji treba smerem RT.
            Mne osobne to ale uz nebere. Dam ti priklat WOT..kdysi nadseny fanda, hraval jsem nekolik hodin denne v prumeru a to i na integraci od Intelu! Diky nekoncicimu mrveni herniho zazitku, nepomohl ani novy herni engine, ktery grafiku posunul na novy level, zabava ze hry, ale pro mne uz mizerna. Nehraji.

            • RT ma ale I prakticke efekty, zvlast pro hrace strilecek – v klasicke rasterizacni screen-space reflections se odrazi jen to, co je na obrazovce. S RT se ale odrazi I to, co je za rohem. Tak si predstav, ze mas dva hrace – jeden bez RT a druhy s RT – a stoji v zahnute chodbe, kde jsou okna. Hrac s RT muze videt toho druheho v odlesku v okne a zareagovat, zatimco hrac bez RT ne. To si myslim, ze minimalne pro hrace Battlefieldu a PUBG bude mega motivace upgradovat na RTX grafiky.

            • No, hráči stříleček při multiplayeru to ale asi taky budou často vypínat kvůli tomu, že propad FPS při počítání těch stínů a odrazů by je mohl znevýhodnit. Je otázka, zda to teda bude reálně zneužitelné (výbuchy, světlice a tak).

            • To je fakt usmevny jak tvrdosijne porad ocekavas propady v FPS. Trochu by to chtelo ubrat na tom biasu (jakoze porad jsi novinar). Takze po milionty – s RT se ty nejnarocnejsi efekty pocitaji na dedikovanych RT cores (ktere jsou na vypocty tech efektu optimalizovane, na rozdil od general-purpose CUDA jader). Tim se CUDA jadrum ulehci a vykon by teoreticky mohl jit I nahoru. To ale pravde uvidime za mesic (I kdyz nejake informace uz mam) 🙂

              Jen pro informaci ale uvedu, ze kdyz ma scena deset smerovych svetel, musi se vyrenderovat pohled z kazdeho svetla, tzn. se scena vykresluje 10x navic k tomu zakladnimu pruchodu. S raytracingem se vykresluje jen jednou – to znamena jen jeden pruchod geometrii, jen jedna rasterizace objektu atd. .. zbytek si odvod sam 🙂

            • Nikdo to ještě neměl možnost reálně testovat, to co píšeš jsou jenom domněnky/naděje. Ray tracing je notoricky známý jako věc s velkými nároky na výkon. Proto taky doposud nebyl ve hrách používán a přichází na něj řada až teď.

              Máme dvě alternativy – buď to bude menší nebo větší žrout FPS, nebo to bude neutrální/s pozitivním vlivem. Všechno myslím mluví spíš pro tu první možnost, tak to je prostě pravděpodobnější varianta a je racionální pracovně se jí zatím držet, dokud nebudou nějaká opravdová fakta, která by to vyvrátila – což zatím nejsou.

            • Pozor, pozor, Maudit už nějaké informace má… 😀 😀 On chodí s Huangem na golf.
              Né, ten klučina je fakt vtipnej, naštěstí mu už brzy skončí prázdniny a přestane tu spamovat diskuse těma jeho vymyšlenýma kravinama. 😀

            • Jan Olsan: Ale on klidne muzemit pravdu, opravdu bude zalezet na zpusobu implementace a moznostech konfigurace RTX v kazde hre.
              Pokud pouziji specializovany HW ktery ubere praci standardnimu HW, tak to muze mit pozitivni vliv na vykon. Ale pokud se to prezene a ten specializovany HW to bude pocitat na miliony paprsku, kazdy s dvaceti odrazy, tak to pak zpusobu snizeni vykonu jako celku, protoze se bude cekat na ty kvanta vypoctu. Toto bych opravdu hodnotil az jak se ukaze praxe a jak to ktery vyvojak implementuje.

            • Presne. Ocekavam, ze ve hrach nebude jen nastaveni RT On/Off, ale zaroven nastaveni kvality – tzn. jestli se pri odrazu spocita hodne nebo malo odrazenych paprsku. Protoze je mnozstvi Gigarays fixni, bude pak zalezet, jaky pomer mezi kvalitou raytracingu a cilovymi fps si uzivatel zvoli. Grafika muze dat 60 fps s maximalni RT kvalitou a treba 120 fps, kdyz snizis RT kvalitu na minimum.

              Ono to bude tezke ohodnotit i pro recenzenty, protoze jak jsem psal uz nahore, nebude mozne porovnavat jen hrube fps, kdyz Geforce budou produkovat mnohem kvalitnejsi a realnejsi vystup, nez Radeony.

          • ..uplne stejne jsem prestal hrat ‚battlefieldy‘ a ‚call of duty‘. Kdyz si vezmu prvni Call, jaka to byla na tehdejsi dobu pecka s atmosferou, ktera tu zatim nebyla.. To stejny treba prvni Far Cry.. Jejich dnesni derivaty/recyklaty…no nevim…

  7. Bola len otázka času kedy niekto s RT príde, a ja som nadšený že sa lady konečne pohli ale nieje to len techdemo.
    Komentár k cenám: „… ale zas keď ľudia vyhodia stejne prachy za chytrý telefón…“

  8. Z mojho pohladu tie ceny nie su zle. 2070 RTX bude stat okolo 550 eur za nereferencnu verziu a v starych hrach ocakavam velmi podobny vykon ako ma teraz 1080 GTX, ktora tiez stoji okolo 550 eur. A v novych hrach bude 2070 RTX rychlejsia, lebo ma Tensor jadra a RT jadra. Takze je to lepsia karta za rovnaku cenu. High end je drahsi, ale nema konkurenciu.

    Komu su drahe, moze cakat na nove karty, ktore pridu mozno o rok.

  9. Docela mne zajímá odezva AMD. Těším se, že taky něčím překvapí.
    Turing také přeskočím, protože mám to štěstí, že novou kartu nyní nepotřebuji. Vyhlížím spíše zajímavý monitor (38″ 144 Hz 3800×1600) a podle něj vyberu 7 / 10 nm model budoucí GPU …

  10. Čistě kontrolní otázka pro znalce:
    Kdo napsal tohle?
    „Turing je celkem fail..
    Realny vykon nikdo nerekl, pry to nema byt zadna hitparada..

    Ceny sou silene, kdyz HUang ohlasil ceny cely sal byl stiha a sam HUang radsi velmi rychle jeviste oupstil, protoze by se mozna dostavilo i buceni..

    Cela prezentace jeden velky FAIL..

    Asi nejhorsi uvedeni nove generace u Nvidie za poslednich 10 let.“

    :D:D 😀

    • A schvalne, kdo napsal tohle:

      „V tuto chvíli není na trhu žádná grafická karta, která by na [RT] měla výkon.“ – a co nove uvedene grafiky?
      „Dosavadní ukázky jsou silně nepřesvědčivé. Pokud už se najde taková, kde RT verze vypadá opravdu lépe, pak je to spíš tím, že klasická vypadá špatně a může nastat oprávněné podezření, jestli nebyla očesaná záměrně“ – ale to vis ze jo, vsichni jsou zli a podvadej, jen AMD je svetice (az na poor volta, fixer, niceni konkurencnich karet, …). ach ty dvoji standarty
      „Nepodporují to konzole, takže pro většinu vývojářů půjde na nejvýš o ozdobu navíc, ne základ, jehož přípravě a optimalizacím by se při vývoji hry věnovalo podstatné množství času.“ – konzolove hry tvori jen maly zlokem z PC her, staci se podivat na katalog Steamu 😉
      „Pokud nebudou mít konkrétní motivaci RT využívat (což je u technologie, která se zatím jeví jako velký žrout výkonu s minimálním vlivem na kvalitu obrazu)“ – zrout vykonu? vzdyt se to pocita na samostatnych RT jednotkach. a realne odlesky, stiny, ao, barvy, ssc, atd. to je „minimalni vliv na kvalitu obrazu“?

      Ta schvalne, kterej neurotik, co mu z prave uvedenych grafik cuka koutek, je za tohle zodpovedny? Mas tri pokusy 😀

      • Docela by mě zajímalo co je na daném textu tak pobuřující/nepravdivé?
        Jediný proč by nástup RT neměl být stejný porod jako nástup Teselace nebo nedej bože blahé paměti T&L ?
        Skoro žádný HW nemá podporu,těch pár karet které ano osloví nevelký i díky šíleným cenám málokoho,herní studia se asi přetrhnou aby si měly práci navíc pro nula nula nic potencionálních kupců.Až bude podpora za pár let ve střední třídě GPU a především v herních konzolích tak bude mít smysl o RT vůbec uvažovat jako důvod ke koupi GPU.Jenže v té době kdejaká karta za 200$ zastaralou 2070/2080 vyklepne…
        Zatím nVidia a hlavně někteří její příznivci přesně padnou do ,,Mnoho povyku pro nic,,

        • Ten povyk ale jde spis od AMD fans, jako jsi ty, protoze jim raytracing ocividne slapl na kuri oko. Uz vidim, jak bude Stach rikat, jak je „Vega vic vybavena, nez Geforce“, kdyz Vega nema zadnou akceleraci pro AI ani RT 😀

          A co ten komentar o konzolich? To je ten clovek tak dementni, ze si nevidi rozdil ve velikosti hernich katalogu pro PC a konzole? 😀 Co napsal je naprosta lez, ale stejne se najdou idioti, kteri mu to sezerou 😀

  11. Zajímavé jak RT všichni žerou bez jakýchkoliv pochyb 😀 já si teda rád počkám na reálné srovnání, dopad na výkon atd.. Zatím mi to v této první generaci přijde jako takový gimmick, něco jako hairworks. To kdyby mi někdo ve Witcheru 3 vypnul, tak si toho asi ani nevšimnu. Ale chápu, že někdo je na grafiku asi víc vysazenější.

    Jinak RT má ve hrách určitě budoucnost, za každou novou technologii jsem rád. 2080Ti pro mě jasná koupě nehledě na RT, výkon bude cca dle očekávání, konkurence neexistuje. Vyšší ceny jsem čekal a varoval před pokřiveným tržním prostředím už mnohokrát, doufám, že příští generace zdraží ještě víc, pak si snad konečně mnozí uvědomí jak je konkurence potřeba.

    btw: ten founders chladič a OC se vendorům líbit nebude, Nvidia jim ukradne značnou část obratu, Huang jde pomalu ale jistě za svým, nakonec to dotáhne na přímý prodej, na vendory se vykašle a z NV se stane předražený Apple 😛

  12. Ještě mě zaujalo jak tu mnozí zmiňují to Unreal 4K demo, který 1080Ti umí na 35FPS a 2080Ti na 60+ a že tím pádem je tam i obří posun v rasterizačním výkonu…. Vždyť to vůbec neběží nativně ve 4K, Huang to tam jasně říká, že to je dopočítané z nižšího rozlišení pomocí DLSS.

          • Presne, o zadny upscaling se nejedna 🙂 Ono uz I to jmeno – denoise – mohlo Aznoha trknout. A pak taky fakt, ze jsou hry, ktere nepodporuji RT, ale pouzivaji DLSS, a hry co podporuji RT ale ne DLSS, to mu taky mohlo dojit, ze to neni RT 😀

            Nekteri lide jsou fakt natvrdli (nebo omezeni, nebo to delaji schvalne, to si vyberte kazdy sam 😀 ). Detaily viz tabulka podpory tech dvou technologii na anadtechu:

            https://www.anandtech.com/show/13261/hands-on-with-the-geforce-rtx-2080-ti-realtime-raytracing

            • Děláš si srandu nebo jsi opravdu tak tupej Maudite?? On opravuje tebe. Ty posíláš screen o RT, kdežto já o RT nic nepsal. Pochop že to demo bylo upscalováno do 4K přes DLSS z nižšího rozlišení.
              Fakt si tu někdy připadám jako v klubu hotentotů… 😀

            • Opravuje me, jo? 😀 Takze:

              Aznohh 22.8.2018 at 12:50
              „Vždyť to vůbec neběží nativně ve 4K, Huang to tam jasně říká, že to je dopočítané z nižšího rozlišení pomocí DLSS.“

              Maudit 22.8.2018 at 13:23
              „Tos to blbe pochopil. LOL“

              dom324 22.8.2018 at 16:19
              „DLSS je AI trénovaná na vylepšení kvality obrazu – hlavně teda odstranění aliasingu.“

              Kde tam mluvi o upscalingu? Ja teda ctu „vylepseni obrazu“ a „odstraneni antialiasingu“. A jestli je DLSS o upscalovani raytracovaneho obrazu, tak proc jsou v tom seznamu hry, ktere maji RT podporu, ale ne DLSS? 😀

              Asi by to chtelo si neco precist o supersamplingu, Aznohu, at se tu dal neztrapnujes. Supersampling je presnej opak upscalingu. V supersamplingu neco renderujes ve vetsim rozliseni nebo vice pruchody (neboli delas vice samplu pro jeden bod) a pak to pouzijes na presnejsi obraz v nizsim rozliseni. (to je mimochodem presne to, co se deje v raytracingu, kdy z jednoho zasazeneho bodu se trackuje vice odrazenych paprsku – vice samplu)

              https://en.wikipedia.org/wiki/Supersampling

              Upscaling je naopak technika, jak z mensiho rozliseni udelas vetsi 😉

              https://en.wikipedia.org/wiki/Video_scaler

              Delas ze sebe blbce, takze klidne pokracuj 😀

            • Teď je možné, že v tom máme zmatené pojmy a obojí se nejmenuje DLSS. Ale je jisté, že Nvidia má tu techniku pro transformaci ‚Nižší kvalita – > NN upscaling/“supersampling“ -> vyšší kvalita‘ zdá se vytvořenou jak pro ray tracing, tak pro rasterizaci.

              U rasterizace je to asi jednoduché, renderuje se na nižším rozlišení, projede se to neuronovou sítí vytrénovanou na upscaling (sada obrázku s nižším a vyšším rozlišením pro učení, kdy síť je naučená tak, aby interpolovala na to vyšší rozlišení podle těch tréningových kvalitních obrázků).
              U ray tracingu to funguje jinak, tam je to ten denoising. Ray tracing se provede s redukovaným množstvím paprsků, což vede k tomu šumu, a pak se to prožene neouronovou sítí, která odšumuje (opět je naučená na dvou sadách obrázků – jeden se šumem, jeden s vysokou kvalitou, a cílem je, aby odstraňovala ten šum/chyby tak, aby výsledek byl pdobný těm kvalitním obrázkkům). Rozlišení na počet pixelů v tomhle případě asi může být i stejné.

              To jsem z toho zatím vydumal.

            • lol ty budeš asi fakt blbej Maudite… 😀
              proč OPĚT mluvíš o raytracingu??: „A jestli je DLSS o upscalovani raytracovaneho obrazu“

              Já ti už poněkolikáté píšu, že DLSS a raytracing jsou dvě naprosto odlišné věci a o RT jsem nikde nic nepsal.

              Prostě to Epic demo bylo do 4K rozlišení upscalováno přes DLSS, je to vidět i z nových grafů Nvidie, že s DLSS je výkon ve 4K vyšši https://cdn.videocardz.com/1/2018/08/NV-GeForce-RTX-2080-Performance.jpg

              To, že do toho teď navíc mícháš supersampling, který já narozdíl od tebe a tvé plečky denně používám je další tvůj krok mimo. 😀

            • Proc do toho micham supersampling? Protoze DLSS je, svete div se *drum rooooooll* Deep Learning Super-Sampling (DLSS). Me tohle fakt bavi, ukazovat co jses doopravdy zac 😉 A svete div se #2, Deep Learning Super-Sampling dela presne to, co ja I dom324 rikame, viz. primo ze stranek Nvidia:

              „Powered by Turing’s Tensor Cores, which perform lightning-fast deep neural network processing, GeForce RTX GPUs also support Deep Learning Super-Sampling (DLSS), a technology that applies deep learning and AI to rendering techniques, resulting in crisp, smooth edges on rendered objects in games.“
              https://nvidianews.nvidia.com/news/nvidia-rtx-platform-brings-real-time-ray-tracing-and-ai-to-barrage-of-blockbuster-games

            • A super sampling mimo jine odstranuje co? Noise. Protoze kdyz udelas jen 1 sample per pixel, muze ti ten sample vyjit tam, kde je subpixel barva zelena, zatimco v celem pixelu by byla barva modrozelena. Ve vedlejsim pixelu ale nahodou sample trefi tu modrou cast vzoru a mas modrou barvu – ve vysledku modrozeleny sum. Kdyz ale udelas vic samplu, tak ti v obou pixelech vyjde modrozelena barva, ktera bude krasne nezasumnena.

            • Hurá, konečně Maudit pochopil aspoň tu první část a to, že není vůbec řeč o raytracingu. Gratuluji.
              Bohužel Maudit zatím nepochopil druhou věc – a to, že když jednou existuje SS (který narozdíl ode mě Maudit na své plečce nepoužívá, takže zná jen teorii), tak to neznamená, že DLSS bude fungovat na stejném principu. Doporučuju si pustit tu NV prezentaci, kde Huang poměrně přesně říká jak DLSS bude fungovat a to transformaci nižšího rozlišení na vyšší rozlišení za pomocí deep learningu https://youtu.be/IG2wVjQUr3c?t=8780

              Tomu odpovídají i ty nové grafy Nvidie, kdy s DLSS je výkon vyšší. Pokud ani tohle Maudite nepochopíš a jsi stále zaseklý v denial fázi, tak už ti to asi nevysvětlí ani pánbůh. 😀

            • Pochybuju, že DLSS bude mít nějaký značný vliv na noise – a hlavně neznám moc her, kde by se noise vyskytoval vyjma efektů typu kamera v Outlast.
              DLSS má spíše nahradit současné metody AA. Na Super Sampling mít nebude, ale bude mnohem lepší než post processingové FXAA a TXAA.

              Z prezentace jsem to pochopil tak, že vzali trénovali na obrázku s rozlišením x, kterému pak snížili rozlišení na y.

            • To je tak hezky, jak Aznoh zmatene mumla, kdyz zjistil, ze DLSS je supersampling, coz je presny opak upscalingu. LOL. A prej ze pracuje se SS? Tak podle projevu bych toho cloveka nepustil ani k soustruhu, natoz k cemukoliv technickymu 😀

              Mimochodem, to rika Huang si ocividne nepochopil. Bohuzel ani Jan Olsan ne, coz me trochu prekvapuje. On mluvi o tom, ze muze vylepsit obrazek s nizsim rozlisenim tim, ze neuralni sit vytrenuje na obrazcich s vyssim rozlisenim. Ale to vubec nemluvi o upscalingu. Naopak, je to prave supersampling. Funguje to tak, ze oni renderuji v jejich datacentru statisice obrazku treba v 8k, 16k (nebo jakemkoliv vetsim rozliseni, Huang tomu v keynote rika super-resolution) a ta neuralni sit se uci nahradit nutnost renderovat obraz ve vetsim rozliseni svoji vlastni logikou, z kontextu obrazku.

              Supersampling totiz funguje tak, ze vyrenderujes obraz v mnohem vetsim rozliseni (delas vic samplu na jeden pixel z puvodniho mensiho rozliseni) a ta data pak pouzijes pro vylepseni kvality toho hrubsiho pixelu v nizsim rozliseni. To je hruba sila. Oni dokazali naucit tu neuralni sit dosahnout podobne kvality jen na zaklade informaci o okoli (ta neuralni sit dokaze rozumnet objektum ve scene, takze identifikuje treba hranu toho kanonu – vsak se taky dnn pouzivaji k pocitacovemu videni) a jeste k tomu z vektoru pohybu objektu ve scene, protoze jde o temporalni neuronovou sit (dokaze zpracovat casove zavisle informace). Ta sama dnn se samozrejme da pouzit I ke zvyseni rozliseni (Huang to tam rika, treba vylepseni CT scanu), kdyz tu extra informaci (extra samply) nepouzijes k antialiasingu, ale primo na vykresleni dalsiho pixelu. Ale v kontextu supersample antialiasingu jsou ty extra samply pouzity k vyhlazovani (proto to tak pojmenovali LOL).

              O tom trenovani na superresolution obrazcich mluvi tady. A ten vyraz „lower resolution“ znamena samozrejme „lower than superresolution“ (radsi predchazim dalsim stupidnim dotazum a komentum). Jasne tam rika, jak tu dnn trenuji v datacentrech.

              https://youtu.be/IG2wVjQUr3c?t=2h18m

              Muzes byt dal za blbce a tvrdit, ze to je upscaling (nic proti tomu, je to sranda), ale neni to upscaling. Ty antialiased obrazky jsou renderovane nativne ve 4k, ale vyhlazovane jsou skoro jako kdybys na ne pouzil realne supersamply.

              Tady dokonce mluvi Huang o tom, co jsem zminil nahore – ze ten anialiasing je pouzity k doplneni informaci chybejicich z raytracingu (diku cemuz muzou dramaticky omezit pocet potrebnych paprsku):

              „[…] or sometimes the image is not even complete with raytracing […]“
              https://youtu.be/IG2wVjQUr3c?t=2h22m28s

              Pro dnesek koncim. Za takovyhle vzdelavani si normalne necham platit. Tak dneska pro vas zdarma 😉

            • Maudit> Samozrejme sa mýliš. Huang jasne pri prezentovaní DLSS hovorí, že sa trénuje na „super-super high-res obrázkoch“ (chápem ako viac než 4k), ale potom, že stačí keď dodáme vytrénovanému systému obrázok s nižším rozlíšením (vyslovene hovorí že napr 1440p) a on nám vyprodukuje „krásny obrázok v 4k“.

              Pri časti o deme Infiltrator spomínal len že je to „krásna kvalita v 4k“, takže v tomto kontexte by som si ten DLSS dovolil nazvať inteligentným upscalingom, hoci sa ti to nemusí páčiť. 😉 Ako to bude v praxi vyzerať, uvidíme neskôr, ale na prezentovaných obrázkoch je jasne vidieť blur na textúrach v porovnaní s 4k TAA, takže za mňa: upscaling ako vyšitý, so stratou detailov ako k tomu patrí, ale … aspoň hrany sú ostré.

              BTW: Ak ti niekto za takýto výkon platí tak dobre pre teba, zle pre neho.

            • Maudit to má v kebuli trochu přeházené, vzal pár pojmů co jakž takž pochopil, zamíchal to dohromady a vyšel mu z toho úplně nesmyslný závěr. Něco jak když pejsek s kočičkou vařili dort. 😀

            • Maudit – ale ty to máš všechno postavené jenom na domněnce, že když to má v názvu SS, tak to musí být supersampling jako ve smyslu FSAA. Ale to přece vůbec nemusí bejt pravda.
              A právěže zatím všechno svědčí o opaku. Je to postprocessing, tedy čas navíc pro každý zprcovávaný frame, přesto je ale výkon vyšší -> takže evidentně před tím postfiltrem se někde šetří výkonem. Logicky to tedy musí být rendering na nižším rozlišení.