Technologie Nvidia DLSS a Reflex budou ve více hrách, Unreal Engine je teď má jako plugin

27

Vývojáři her používající Unreal Engine 4 teď budou moci přidat podporu DLSS 2.0 do her pomocí hotového pluginu od Nvidie, takže her, kde tuto funkci budete moc používat, by mělo v budoucnu hodně přibýt.

Když Nvidia loni vydala novou verzi DLSS označenou 2.0, jednou velkých výhod této aktualizace bylo, že se výrazně zjednodušila integrace do her. A to díky tomu, že neuronová síť provádějící upscaling z nižšího reálného rozlišení na rozlišení monitoru už se nemusí trénovat zvlášť pro každou hru, stačí použít předpřipravenou od Nvidie.

Teď přichází další změna, která by měla dál rozšířit počet her, které budou DLSS 2.0 nabízet. Nvidia oznámila, že technologie DLSS 2.0 (respektive teď již 2.1) je teď dostupná jako plugin pro Unreal Engine 4. Přesněji by mělo jít už o DLSS 2.1, které mezitím vyšlo (s režimem Ultra Performance, který provádí 3× zvětšení pro hraní na 8K monitorech).

Usnadněná implementace DLSS

Plugin přidávající DLSS je kompatibilní s enginem ve verzi 4.26. Jeho dostupnost by měla významně usnadnit přidání tohoto druhu upscalingu do her, které jsou na Unreal Engine postavené. Minimálně část námahy by měl odvést už samotný middleware. Je možné, že určitá pracovní „přítěž“ zůstane (minimálně bude třeba testování této funkce navíc), takže úplně zadarmo asi přidání DLSS nemusí být. Toto asi není záruka, že jakákoli hra na Unreal Engine 4 teď DLSS vždy bude poskytovat.

Ale laťka pro podporu DLSS v dané hře se hodně sníží a to by logicky mělo vést k tomu, že funkci přidají vývojáři dalších her, které zatím tuto technologii nepoužívaly. V budoucnu by se tedy rozšíření mělo zlepšit proti dnešku (byť ani dnes není podpora DLSS 2.0 zas nějak výjimečná věc).

nvidia dlss 2 0 architecture
Temporální stabilizace v DLSS 2.0

Reflex

Kromě DLSS současně Nvidia současně uvádí i plugin, který do Unreal Engine 4.26 přidává podporu pro funkci Reflex, což je technologie pro maximální možné eliminování latence čili zpoždění mezi akcí ve hře a tím, kdy se projeví na obrazovce.

Nvidia Reflex jde ještě nad rámec již existující funkce Ultra Low Latency Mode. Tato pracovala jen v rámci ovladačů a zkracovala vykreslovací frontu, která by normálně obsahovala více po sobě jdoucích snímků, což latenci zvyšuje. Každé zkrácení této vykreslovací fronty snižuje latenci, ale i jednosnímková fronta nějakou ponechává.

Nvidia Reflex ale jde ještě dál, než je jenom zkrácení této fronty. Je integrován přímo do samotných her ve spolupráci s jejich vývojáři. Díky této integraci ve hrách dovoluje Reflex vykreslovat zcela bez fronty a maximálně tak zkrátit čas, které uplyne mezi vaším povelem na klávesnici nebo myší nebo pohybem protivníka a zobrazením akce na vašem monitoru. Obnovení obrazu na monitoru by mělo být co nejvíce synchronizované s časem, kdy je vykreslování snímku zrovna v GPU dokončeno.

Reflex také dovoluje latenci měřit a analyzovat ve spolupráci s některými monitory s G-Sync, které dokáží sledovat kliky myši připojené ke svým USB portům a porovnávat je s časováním obrazu přicházejícím z GPU.

Dostupnost pluginu pro Unreal Engine opět znamená, že přidání podpory této technologie ve hře by nemělo pro vývojáře být tak náročné, jako kdyby podporu tvořili zcela sami. Tudíž by toto mělo pomoci Reflex rozšířit do více her. Významné by to mělo být hlavně pro soutěžní a multiplayerové hry.

Jak v případě Reflexu, tak DLSS efekt této práce na vývojářských nástrojích nebude naplno vidět ihned, ale vlastníci karet GeForce by měli profitovat v budoucnu.

Galerie: AI upscaling DLSS 2.0: srovnání kvality a výkonu dle Nvidie

Zdroj: Nvidia

Technologie Nvidia DLSS a Reflex budou ve více hrách, Unreal Engine je teď má jako plugin
Ohodnoťte tento článek!
5 (100%) 9 hlasů

27 KOMENTÁŘE

  1. Tak mi to pripadá, že verzia DLSS 2.1 (ktorá nevyžaduje vytrénovanie na superpočítači), je odpoveďou nVidie na spoločné úsilie AMD, Microsoft-u a zrejme aj Sony v podobe chystaného „FidelityFX Super Resolution“ (skrátene FSR), ktorý mieri presne tam kam DLSS 2.1 . A my môžeme len dúfať, že FSR bude fungovať podobne dobre ako DLSS 2.0/2.1 a že sa z neho stane opäť štandard ako je tomu u „FreeSync“ s ktorého vznikol štandart „VESA – Adaptive-Sync“ a ako sa to stalo u „Mantle“ z ktorého vychádza „Vulkan“ (síce pozmenený aby fungoval aj na iných ako AMD čipoch) a ktorý donútil Microsoft vydať tiež low level API „DirectX 12“. Budem rád ak opäť vyhrá „otvorená technológia“ pre všetkých, nad uzavretou technológiou jednej firmy.

    • Tieto bludy asi čítaš u ddementa z garáže čo 😀
      Už len logicky DLSS 2.1 nemôže byť odpoveď na imaginárnu technológiu ktorá zatiaľ neexistuje, nieto, že by aj fungovala. Asi ako slávne Primitve Shaders 😛

      • Presne som čakal narážku na to, že nemôže nVidia reagovať na niečo, čo ešte nevyšlo….no môže, pretože už dávno nVidia vie, že čo AMD a spol. chystá (v hrubých kontúrach isto), len to doteraz nemá vo finálnej fáze pre PC a konzoly PS5 a XboX series X …primitive shaders fungujú, ale až od RDNA architektúry….Koduri-ho VEGA to nakoniec nevedela, lebo to bolo až veľmi komplikovane implementované a stálo by to neakceptovateľné prostriedky, aby to fungovalo.

        Tú narážku na pána z dvojitým „D“ si si mohol odpustiť, lebo je to taký istý egzot ako pán „OBR“, to nič nemení na tom, že v istých veciach, môžu mať obaja títo páni pravdu (aj keď každý v iných), ale interpretujú to dosť nešťastným spôsobom.

        https://en.wikipedia.org/wiki/RDNA_(microarchitecture) –info k primitive shaders

        • Máš tam drobnou chybku v předpokladu – píšeš „… že verzia DLSS 2.1 (ktorá nevyžaduje vytrénovanie na superpočítači)…“, jenže to je gró verze DLSS 2.0, stačilo by přečíst pořádně aspoň článek, pod kterým reaguješ. DLSS 2.1 přidává nějaká vylepšení a režim ultra performance pro 8k.

          • Neviem, ale práve v článku z odstavca “ Nvidia oznámila, že technologie DLSS 2.0 (respektive teď již 2.1) je teď dostupná jako plugin pro Unreal Engine 4. Přesněji by mělo jít už o DLSS 2.1, které mezitím vyšlo (s režimem Ultra Performance, který provádí 3× zvětšení pro hraní na 8K monitorech).“ som nadobudol dojem, že DLSS 2.0 potrebuje trénovanie na SuperComputeroch a DLSS 2.1 už nie a môže byť aj v podobe pluginu pre UnrealEngine 4.26 a novší.

            A v popise na stránke unrealengine sa nespomína konkrétna verzie iba je uvedené 1440p > 8K, takže aj ten plugin musí byť DLSS 2.1 (samozrejme obsahuje predchádzajúce vlastnosti čo malo DLSS 2.0 plus pridáva nové)
            https://www.unrealengine.com/marketplace/en-US/product/nvidia-dlss

            • Jak DLSS 2.0 tak DLSS 2.1 se vytrénovalo někde na superpočítači Nvidie.

              Rozdíl je mezi nimi a DLSS 1.0. To se jseště muselo trénovat na každou hru zvlášť, DLSS 2.x už se trénuje genericky a pak už má fungovat pro všechny hry. Ten jednou natrénovaný model mohou vývojáři hry začlenin manuálně, nebo teď pomocí toho pluginu v enginu Unreal.

    • Každá technologie přinášející nějaký ten výkon navíc je vítaná.

      A k otevřeným standardům, třeba paradoxně FreeSync nedodržuje Adaptive Sync standard už proto že nevyžaduje využítí display portu člověk fakticky neví co kupuje protože není FreeSync jako FreeSync, třeba jen se dozvědět v jakém rozsahu na daném monitoru FreeSync funguje je téměř nemožné, v běžných specifikacích to uváděné obvykle nebývá a může se lišit monitor od monitoru.

      FidelityFX Super Resolution pokud implementován pomocí DirectML bude proti DLSS trpět, aktuálně AMD nemá čím to akcelerovat. Naproti tomu NVIDIA kdykoli může DirectML použít a má k dispozici akceleraci s tensor jádry. Otázkou je jaká bude výsledná kvalita.

      AI akcelerovaná speciálním HW je cesta správným směrem, běžně používané třeba v telefonech nebo noteboocích, kde to pomáhá se zpracování fotek, stabilizací videa, filtrování nežádoucích zvuků z mikrofonu atd. Nemá smysl vše lámat hrubou výpočetní silou, když malý kousek specializovaného křemíku odvede více práce s daleko vyšší energetickou efektivitou.

      • K freesync monitorom len toľko, že je na to „dosť hrubý“ zoznam https://www.amd.com/en/products/freesync-monitors

        K DLSS a Tensor jednotkám… uvidíme až to AMD implementuje…momentálne mi to pripadá tak, že sa možno AMD stráni vytvárať špeciálne jednotky na AI, lebo zrejme to zaberie väčšiu plochu ako rozšíriť už existujúce jednotky, aj keď to má istý dopad na výkon. Budeme múdrejší neskôr, ale netvrdím, že nemáš pravdu…každá „sranda“ niečo stojí.

  2. Tolik úsilí do nějakých softwarových oje*ů a přitom stačí jediné… Vydat normálně výkonnou grafiku, která to 4k dá. Je docela smutné, že ani v roce 2020 jsme nedostali nic, co by zvládlo 4K zobrazovadlo a karty musí používat upscaling. A navíc se ani nic nedá koupit.

    • Ake jednoduche. Staci vydat dostatocne vykonnu kartu na 4K. Co tak rovno na 8K alebo 16K? Skoda ze to doteraz nikoho v NV ani AMD nenapadlo. 🙂 Rekonstrukcia obrazu (nie obycajny upscaling, na ktory to niektori ludia zhadzuju) je cesta k vyssim rozliseniam. Nebudem mat problem hrat hry v akomkolvek rozliseni aj ked sa bude obraz realne renderovat v rozliseni nizsom. Ak nebudem vediet rozlisit vysledok od nativneho rozlisenia, nevidim v tom problem.

      • Nechápete smysl příspěvku. Už několik let se tu plácáme s 1440p. Když už přijde nějaká výkonnější karta, tak tam nasadí nesmyslnou cenu (RTX 3090 / RX 6900XT) a pak přijde hra, jako Cyberpunk 2077 (optimalizační odpad) a i nejvýkonnější kartu to položí na lopatky. A kupte si kartu za 50+k a pak hrajte v 1440p+upscaling. To raději zůstanu u svoji RX 5700XT za 12k a taky můžu většinu her hrát v 1440p, jenom s míň fps a bez upscalu, ale stále nad 60fps. Takže se mi prostě neoplatí dělat upgrade. Možná, kdybych byl nějaký velký hráč, tak ještě přivřu oči, ale jelikož zahraju tak 2 hry ročně, tak by to znamenalo, že si zahraju tak 3-4 hry, než karta začne být zastaralá a výkonnostně nedostatečná. To kdysi neexistovalo, koupili jste si High-end za 13k a hráli i 4 roky. Btw tu RX 5700XT jsem koupil jako přechodnou kartu za mojí dosluhující GTX 1070, která na 1440p@120hz už neměla výkon s očekáváním, že se dočkám nějaké 4K karty do 20k. V chytrém upscalingu taky nevidím problém, ale kvalita nikdy nemůže být, jako nativní rozlišení a proto to nechci používat, resp. připlácet tolik peněz za to, abych stále hrál v 1440p, ale s upscalingem. 8k nebo 16k zatím není vůbec rozšířené rozlišení, takže tolik výkonu není potřeba, i když by se hodil, protože by to znamenalo dost výkonu na 4k@120hz (aspoň 60fps)

        • Nechcete jít dělat CEO do AMD nebo NVIDIE? „Chytrý“ jste na to dost. Nebo možná jít šéfovat do těch sw firem které dělají stále větší a větší srákory místo toho aby hry pořádně optimalizovali aby vymáčkli z hw co nejvíce.
          Mimochodem, kdyby například OS a programy na Androidu zůstali na úrovni před několika roky a místo honění většího a většího výkonu se šlo na energetickou účinnost, tak dnes máme mobily které vydrží na nabití stejně jak například Nokia E52. Ale to se dělají stále větší omalovánky, další čuribrky přidávají, …
          A to samé je i ve Windows (tam se dost věcí dá naštěstí celkem jednoduše vypnout) a u her to samé. Tam naopak vedení firem tlačí místo optimalizací tam nahamtat celou řadu nesmyslů, jen ať se to dobře prodává těm troubům co za to ochotně zaplatí.

          • Tak jinak. RTX 3080 má výkon dvou mých RX 5700XT. RX 5700XT mě stála 12000,- za jednu z nej edic. Takže aby mi koupě dávala ekonomický smysl, musela by stát do 20k, ale ejhle vona stojí 35k. Optimalizace je věc jedna, ale poměr cena/výkon je věc druhá. Koupě musí mít smysl a 35+k jsem naposled utratil za OLED monitor, protože tam ta vysoká cena má opodstatnění, zatímco upgrade na RTX 3080/RX 6900 XT smysl nemá

            • bacha, už se blížíš k hejtu, a ten Speedy nemá rád! (teda pokud se netýká jím neuznaných podznaček jako je třeba AMD, pak je situace samozřejmě diametrálně odlišná)

            • Je fajn srovnávat ceny karet kupovaných před covidem/btcbublinou a nyní. Schválně se podívej na ceny 5700XT nyní, třeba na aukru (jinde nejsou „skladem“).

            • Ano, doporučená cena měla být 19k, ale i tak ty karty za tu cenu nešly koupit. A ceny jsou teď šílené i u AMD, takže je to prašť jako uhoď.