Samostatné grafiky Xᵉ od Intelu budou umět ray tracing. Zatím ale jen pro datacentra

20

Ještě to bude asi nějaký rok trvat, než Intel uvede své teď už netrpělivě očekávané samostatné grafické karty, nicméně firma na internetu už vytváří vlny, aby pro GPU předem vybudovala značku a nějaké renomé. Už víme, že GPU mají nést jméno Intel Xᵉ, teď ale Intel vypustil zajímavý detail. Oznámil totiž, že Xᵉ bude umět akcelerovat ray tracing, což je horká novinka v herní oblasti od vydání grafik Nvidia Turing. Jen ještě není úplně jasné, jak daleko tato podpora zajde.

Intel oznámila různé novinky pro profesionální a studiovou grafiku na konferenci FMX a mezi tím je i vyhlášení, že „architektura Xᵉ je teď oficiálně součástí naší strategie pro ray tracing v datacentrech“ a že „roadmapa architektury Intel Xᵉ pro optimalizované vykreslování v data centrech zahrnuje hardwarovou akceleraci ray tracingu v knihovnách a API Intel Rendering Framework.“

Hned je asi třeba trochu zchladit nadšení: toto zatím není oznámení speciální hardwarové akcelerace ray tracingu pro hry (DirectX Ray Tracing/DXR, či jak tomu říká Nvidia, „RTX“). Oním vykreslováním v datacentrech se míní ray tracing pro jiné využití – pro náročné vizualizace počítané offline a nikoliv v reálném čase, a zejména pro animace a triky ve filmovém průmyslu. Intel má pro tyto aplikace řadu software jako zmíněný Intel Rendering Framework, Embree a nedávno jsme například psali o denoiseru pro ray tracingové vykreslování, který publikoval jako open source.

Tento druh ray tracingového vykreslování se ovšem dosud počítal na serverech, “render farmách“ a na CPU – například kvůli potřebě většího paměťového prostoru než mají grafické karty. Ovšem i pro tuto sféru se přinejmenším výhledově počítá s tím, že by evoluce čipů GPU měla umožnit je spolehlivě nasadit i pro tuto náročnou sféru. A o to tu primárně jde – grafiky Intel Xᵉ mají sloužit jako náhrada nebo doplnění serverových procesorů Xeon k vykreslování Hollywoodských animáků (nebo hraných filmů s počítačovými scénami, samozřejmě).

Jen pro datacentrovou architekturu, nebo i pro herní GPU?

Zda to znamená, že herní grafiky Intel Xᵉ budou mít něco jako ray tracingové jednotky Turingu, to je ta otázka. Ve vyhlášení se pečlivě mluví o „Intel Xᵉ pro datacentra“ a Intel dřív tento projekt prezentoval tak, že by možná desktopová a datacentrová výpočetní GPU mohla mít odlišnou architekturu. Teoreticky je tu tedy možnost, že hardwarový ray tracing dostane nejdřív jenom Hollywood a v herních kartách bude až později. Nebylo by to úplně ojedinělé, AMD momentálně také soustředí ray tracingovou technologii (Radeon Rays) na tuto oblast a ne na hry.

Obrázek z demo galerie Intel Open Image Denoise: doposud se Intel soustředil na ray tracing na CPU, teď s chystá přenést ho na grafické karty, kteér má uvést příští rok

Kromě toho není úplně jisté, zda tímto Intel vůbec myslí specializovanou hardwarovou podporu se speciálními jednotkami. Akcelerace by teoreticky mohla znamenat i jen výpočet těchto úloh na GPU jako jiné výpočetní úlohy, na shaderech/EU. Tedy něco jako když teď s novými ovladači pustíte ray tracingové hry na kartách GeForce GTX, byť s horším výkonem. Když se mluví o hardwarové akceleraci, tak byste sice čekali spíše speciální jednotky, ale pamatujte na to, že výchozí situace ve filmovém vykreslování je jiná než ve hrách a obraz se počítá na CPU, čili „softwarově“. V tomto kontextu by přesun těchto výpočtů na čip GPU, byť jen jako výpočetní úlohy (například aplikace OpenCL) už také zasluhoval označení jako hardwarová akcelerace, protože by mohlo dojít k velkému zrychlení.

Zatím to tedy raději berte s rezervou, protože opravdová hardwarová podpora (tj. podpora DirectX ray tracingu i v herních grafikách včetně použití těch specializovaných jednotek pro vyšší výkon) asi z tohoto úplně jistá není. Ale že i na ní dojde, na to je asi pořád celkem slušná šance. Když se nad tím zamyslíte, tak takovou novinku by Intel nepotvrdil jen tak bokem ve zprávě určené pro enterprise/filmový sektor. Podporu této technologie na úrovni Turingů od Nvidie by asi Intel oznámil s patřičnou publicitou jako „v hlavním vysílacím čase“. Ovšem také si takové překvapení asi může ponechávat na později, protože tyto grafiky vyjdou až příští rok (2020) a to ještě možné ne hned z kraje, ale třeba až v létě, nebo na podzim. Zatím to tedy můžeme brát jako takové navznazení a připomenutí, že Intel s ray tracingem také počítá.

Galerie: Grafická architektura Intel Gen11 (Ice Lake, Lakefield, Elkhart Lake, první generace Xᵉ)


Samostatné grafiky Xᵉ od Intelu budou umět ray tracing. Zatím ale jen pro datacentra
Ohodnoťte tento článek!
4.7 (93.33%) 12 hlas/ů

20 KOMENTÁŘE

  1. Uz jsem ti to chtel psat, ale nakonec se tim preci jen posledni dva odstavce zabyvaji a popisuji situaci tak, jak je.

    Nikdo totiz momentalne nevime, co to je hardwarovy raytracing. Jak to definovat?

    Softwarovy raytracing je jasny – obecny x86 procesor dostane x86 instrukce od programu pro raytracing tak, aby se raytracing na procesoru spocital.

    Jenze, kdyz NVidia pocita raytracing pres ovladac (software) graficke karty primo na jadnotkach grafiky, je to jeste softwarovy raytracing nebo hardwarovy? Tyka se grafik Pascal, Volta a Turing GTX.

    A navic se proslycha, ze ani specializovane RTX jednotky na grafikach Turing RTX nejsou schopny spocitat cely raytracing a ze jim castecne take pomaha ovladac graficky pres bezne jednotky. Zde teda jde minimalne o castecny hardwarovy raytracing.

    U AMD je to zase o ovladaci, ktery dostal podporu pocitani RT na obecnych vypocetnich jednotkach graficke karty. U Intelu to tedy vubec nemusi byt jine.

  2. “A navic se proslycha, ze ani specializovane RTX jednotky na grafikach Turing RTX nejsou schopny spocitat cely raytracing a ze jim castecne take pomaha ovladac graficky pres bezne jednotky.”
    To se neproslýchá, tak to Nvidia popisuje ve svých dokumentech a prezentovala to tak.

    RT jádro dostává za úkol analyzovat průsečík paprsků a objektů scén (tj. jestli je a do které primitivy paprsek narazí – nejdřív analyzuje pomocnou stromovou hierarchii “bounding volume” objektů, pak nakonec přímo, kterého trojúhelníku se průsečík týká). Na začátku to inicializuje kód běžící na ALU shaderů, kteérmu se vrátí jako výsledek z RT jádra ten nalzený průsečík a zbytek operací zase dělají programovatelné shadery.

    • No tak jednoduchy to zas neni. Paprsky z pixelu u sebe se pocitaji spolecne nebo se daji puvodni vysledky znovupouzit, protoze ve vysledku prochazeji stejnou cestou v BVH a muzou dopadnout jen na jiny face v danem leaf bounding volume nebo dokonce jen na jinou cast stejneho facu. Tam bude cela rada logiky v scheduleru, ktera tenhle fakt zohlednuje (a nejen tohle), to se vsad.

          • Tady nejde o to, kolik toho RTX dela, ale jak to dela efektivne. Jestli je proste duvod pro to, aby na grafice vubec nejake specializovane jednotky pro vypocet RT byly. Protoze, pokud by se ukazalo, ze bez specializovanych RT jednotek je vypocet RT napriklad pouze o 20% pomalejsi, tak by proste misto RT stacilo navysit obecne vypocetni jednotky a vysledek by byl ten samy jako s RTX.

            To samozrejme nemusi byt vyhodne pro NVidii, ktera chce delit graficke karty do segmentu podle pouziti, ale mohlo by to byt vyhodne pro zakazniky, kteri pouze nehraji hry a vetsi pocet vypocetnich jednotek by vyuzili i na jine cinnosti.

            Ja samozrejme nemohu tusit, jaka je skutecnost, ale urcite bych si pral aby Intel a AMD, pokud by to bylo mozne, nesli ve slepejich NVidie a spis se vydali cestou obecnych vypocetnich jednotek, ktere zvladnou vsechno, bude-li to mozne. Uvidime.

            • To sou takovy pindy tyjo. Videl jsi raytracing od Cryteku na Vega 56? Videl. Videl jsi, jak renderovali raytracovany prvky jen jednou za nekolik framu a jeste v malym rozliseni? Videl. Tak o co se tu snazis? 😁 Prinos RTX je nezpochybnitelny.

              Jako schopnost AMD fans si racionalizovat nedostatky AMD je sice nekonecna, ale zase vas musime hlidat, jinak by vam opravdu hrablo 😘

            • A ty jsi ten retraycing od Cryteku vyjma jednoho videa co kolovalo po Internetu videl? Ty jsi si ho vyzkousel, podobne jako X redakci vyzkouselo RTX od NV?
              “Jako schopnost AMD fans si racionalizovat nedostatky AMD”
              ..ja bych spis rekl, pro nemocne fanatiky jako jsi ty, je vsechno vyjma vlastnich predstav chore. Redmarxuv prispevek je mozna naivni a odtrzeny trochu od reality, ale jinak je uplne normalni, narozdil od tvojich fanatickych pindu..

            • Redmarx: Vzhľadom na to, že je RTX 2060 v RT na úrovni Titan Volta, tak by som povedal, že je to jasný dôkaz toho, že sa RTX výkonovo oplatilo. Položil by som si normálne otázku načo by NV toto robila ak by to malo byť zbytočné. A hľadal by som na to reálnu odpoveď a nie konšpiračné teórie o podvodoch.

            • Co je Váš zdroj, že RTX2060 je na úrovni Titanu Volta? Já jsem viděl test v Battlefieldu V (ještě před zveřejněním driveru, který umožnil spustit RT na GTX grafikách), kde Titan V dosahoval (pokud si dobře pamatuju) výkonu RTX2080.

              Takže buď máte špatný zdroj, nebo nVidia v driveru který umožnil spustit RT na GTX grafikách úmyslně zpomalila Titan V (vypnutý denoising možná?).

            • @dom324:

              https://www.overclock3d.net/news/gpu_displays/titan_v_vs_3dmark_port_royal_-_rt_cores_matter/1

              Treba si uvedomiť, že BF V je najmenej náročná hra z pohľadu RT zo všetkých 3 čo doteraz vyšli (aj oproti 3D Mark Port Royale). Čím sa viac RT použije, tým viac budú Titan Volta aj ostatné grafiky bez RT cores za RTX grafikami zaostávať. A bolo by dobré tiež prestať s konšpiráciami o umelom spomalovaní kariet. Veď to by stačilo keby AMD urobila podporu DXR pre svoje GPU (ako to urobila NV pre non RTX grafiky) a tam by sa to pekne ukázalo. Vážne veríte tomu, že NVIDIA na vlastné náklady do výroby necháva ísť čipy so zbytočnou podporou RT a potom ešte aj umelo obmedzuje v ovládačoch grafiky, ktoré RT cores nemajú (opäť na svoje vlastné náklady), aby to akože nevyšlo najavo? 🙂 Ak by to neurobilo AMD, tak by sa to ukázalo u budúcich Intel GPU, ktoré majú mať tiež podporu RT. V NV nie sú idioti, ktorí by si takto jednoducho nabehli na ranu. 🙂

            • @dom324:
              Ešte doplním citát z predchádzajúceho odkazu:

              “What we see below is that the Kaapstad’s overclocked Titan RTX offers a 2.56X performance boost over an overclocked Titan V, with the overclocked Titan V offering similar levels of ray tracing performance to an RTX 2060”

              T.j. žiadnych 20% výkonu naviac s RT cores ako píše Redmarx vyššie, ale 2.56X vyšší výkon. To je veľký rozdiel.

              Tiež by ma zaujímalo, ako by mala spomaliť NV pre GTX grafiky výkon v RT vypnutým denoisingom? Nemal by byť práve v takom prípade výkon vyšší ale s horšou kvalitou obrazu (so šumom, ktorý nebol z obrazu odstránený)?

            • mareknr:

              “napriklad pouze o 20%”

              Ja nevedel kolik to je a navic ty nezohlednujes to, ze NVidia sama rekla, ze se to jen na RT jednotkach nepocita, takze to tve cislo je stejne spatne jako muj teoreticky priklad.

              Navic se AMD nebo Intelu muze povest implementace RT pro obecnou vypocetni jednotku lepe a pak mohou dojit k zaveru, ze specializovane RT jednotky nedavaji moc smysl. Ale jeste jednou, je to teoreticka uvaha, uvidime az s cim obe firmy vylezou ven.

            • @Redmarx: To moje číslo je výsledkom skutočného testu a nie dohad. Prečo by teda malo byť špatne? To, že sa RT nepočíta iba na RT cores je v pohode. Dôležité je, že tie RT cores riešia často používanú operáciu, čím znateľne urýchlia celkový výpočet. Časom sa možno pod ne posunú aj ďalšie operácie. Ktovie. Osobne si myslím, že bez HW podpory RT (ako RT cores) nebude môcť Intel a ani AMD konkurovať NV v RT. Ale ok. Počkajme si so závermi až s niečím vyjdú von.

            • Port Royal je benchmark, mě spíš zajímal výkon ve hrách. Ale i tak je to překvapivě špatný výsledek pro Titan V.

              Nikde jsem netvrdil, že RT jádra neodvádí žádnou práci. Já jsem komentoval pouze výkon Titanu V se zapnutým RT.

              “ako by mala spomaliť NV pre GTX grafiky výkon v RT vypnutým denoisingom?”
              Nepsal jsem vůbec o zpomalení GTX karet (ty už jsou tak dost pomalé v RT), psal jsem čistě o Titanu V – možná jsem špatně formuloval myšlenku, neměl jsem napsat “vypnutý denoising” ale že počítá denoising na standardních shaderech místo na Tensor jádrech.

              Pokud vím, tak nVidia se nikde nerozpovídala, jak vlastně jede RT na GTX grafikách. Podle mě kvůli absenci Tensor jader denoising běží na standardních shaderech.
              Titan V Tensor jádra ale má a ještě necelého půl roku zpět v tom Battlefieldu V odváděla práci jakou mají a výkon byl na úrovni zhruba RTX2080 https://www.youtube.com/watch?v=yHfP82FwXio Titan V začíná na 9 minutě. Výkon je překvapivě vysoký, vzhledem k absenci RT jader.

              Bohužel testů Titanu V se zapnutým RT je pomálu. Kdyby nVidia chtěla “zkryplit” Titan V, podle mě by nejlepší možnost byla právě přesunout denoising z Tensor jader na standardní shadery.

              Ono to možná vypadá blbě (a paranoidně), že by nVidia schválně brzdila Titan V, ale mě to připadá celkem logické – chtějí se vyhnout situaci, kdy by se po internetu rozšířila informace, že Titan V je schopný rozjet RT dost slušně (což podle mě 30FPS v BF V je). Už jen to, že při představení RTX karet byla všude v grafech GTX 1080 Ti a ani zmínka o tom, jak si vede Titan V (ani se nezmínili, že podporuje DXR) ve mně vyvolává dojem, že nVidia chtěla “ututlat” že Titan V vůbec DXR umí.

            • @dom324: Nemyslím si, že by NV potrebovala tajiť, že má Titan V podporu DXR. A ako som písal aj vyššie, čo sa týka BF V, tak to je najmenej náročná implementácia RT čo v tejto generácii vyšla. BF V s RT sa dá rozbehať pekne aspoň vo FHD aj s GTX 1080 Ti. S väčším využitím RT sa ale takáto záťaž prejavuje viac a RTX grafiky majú citelne navrch. Aspoň z 3D marku to tak vyzerá a je to aj logické.

              “chtějí se vyhnout situaci, kdy by se po internetu rozšířila informace, že Titan V je schopný rozjet RT dost slušně”

              Takáto informácia sa už rozšírila. Tomu sa už zabrániť nedá. Každopádne výsledky z Port Royale a GTX grafík v RT trochu schladili nadšencov, ktorí si myslia, ťe RTX je podvod.

            • @dom32 ten titan-v vykon v raytracingu nikdy nikdo nepotvrdil. to byl jen jeden vykrik na forech. je smesny to vubec pripominat

            • Mareknr: Shodneme se, že RT v BF V je dost málo náročně, a naopak 3D Mark Pro Royal je úplný extrém kde v RT běží prakticky celá scéna. Rád bych chtěl vidět, jak si Titan V vede i v jiných hrách. Je opravdová ostuda, že například Gamers Nexus Titana V vlastní a nenapadlo je nic takového otestovat.

              Maudit: Podívejte se na to video, které jsem liknul. Podle mě je dost důvěryhodné. Výkon Titanu V v RT nebyl jen jediný výkřik na jednom fóru, těch testů je víc (i když jich skutečně je poskromnu) a všechny došly k závěru, že Titan V si v BF V vedl dost dobře.