Herní upscaling: AMD hlásí 230 her s FSR, 101 s temporálním FSR 2.0. Titulů s DLSS je přes 250

66
AMD FidelityFX Super Resolution FSR 1600
AMD FidelityFX Super Resolution FSR
-
Zdroj: AMD

Podle počtu her, v kterých je k dispozici upscaling FSR (FidelityFX Super Resolution), se tato technologie AMD na trhu prosadila. Pokročilejší druhá generace FSR 2.0 či 2.1 už bude ve víc jak 100 hrách.

Je to teprve tři čtvrtě roku od doby, kdy byla vydána technologie herního upscalingu FSR 2.0, určená primárně pro grafiky AMD Radeon, ale fungující univerzálně také na všech konkurenčních GPU. Zdá se, že úspěšně dosáhla přijetí mezi herními vývojáři, protože za poměrně krátkou dobu se podpora rozšířila na více než stovku her, které specificky obsahují už tuto druhou generaci používající temporální rekonstrukci.

101 her s FSR 2.x

AMD spočítalo hry, které dostaly implementaci jeho upscalingu (respektive univerzálního/neutrálního z hlediska svázanosti s konkrétní značkou GPU), a pochlubilo se v oficiálním blogpostu. Podle toho je momentálně podpora FSR 2.0, nebo přesněji FSR 2.x – protože od té doby vycházejí vylepšené aktualizace jako FSR 2.1 – plánovaná, nebo již hotová v asi stovce her. K druhému prosinci to bylo 97 titulů, nyní se v oficiálním seznamu her už nachází titulů 101.

Toto ovšem zahrnuje i hry, v kterých se na FSR 2.x teprv pracuje (ale asi také někdy hry, které ještě celkově nebyly vydané?). Číslo titulů, kde je již temporální upscaling FSR 2.x k dispozici, bylo na začátku prosince 54. Mezitím se přidal například Witcher 3: Wild Hunt Next-gen Update, který obsahuje FSR 2.1.

97 her s FidelityFX Super Resolution 2.0 nebo novější verzí
97 her s FidelityFX Super Resolution 2.0 nebo novější verzí, počet k 2. 12. 2022 (zdroj: AMD)

Další víc jak stovka her má starší verzi upscalingu FSR 1.0, která postrádá temporální rekonstrukci, takže dosahuje horší obrazové kvality. FSR 2.x je principiálně srovnatelné s DLSS 2.x od Nvidie (rozdíl je v tom, že Nvidia používá pro upscaler neuronovou síť, AMD ne). Proti tomu starší verze FSR 1.0 je principiálně obdobou staršího také netemporálního DLSS 1.0. Dohromady je her s implementací FSR 2.x nebo FSR 1.0 nyní 226. Respektive takové bylo číslo k 2. 12., mezitím také narostlo o ty čtyři novinky na 230. Ale to už asi není moc důležité.

Podle webu VideoCardz by her mělo být ještě o něco víc, protože některé implementace nejsou s AMD nijak konzultované a prostě využívají toho, že jde o open source, který může použít prakticky kdokoli, včetně třeba open source emulátorů. Do této kategorie asi také spadají neoficiální mody do her, které lze v některých případech realizovat (FSR 2.x se dá s určitými kompromisy vnutit do her, které používají DLSS 2.x).

250 her s DLSS

VideoCardz také nabízí srovnání s touto technologií Nvidie, která přišla na trh jako první (DLSS 2.0 s temporálním filtrováním v březnu 2020, tedy o nějaké dva roky). Podle Nvidie by DLSS mělo být ve více než 250 hrách. Toto je asi míněno celkově, takže v tom budou i nějaké tituly s DLSS 1.0, ale asi jich bude menší podíl než momentálně u FSR 1.0 v případě AMD, protože DLSS 1.0 mělo omezenější záběr.

Nvidia také uvádí zatím 14 her s podporou nové verze DLSS 3, která k snímkům generovaným na GPU ve hře dopočítává kompenzací pohybu umělé mezisnímky podobně, jako to znáte z televizorů. Podobná technika má být později dostupná opět i univerzálně v rámci AMD FSR, ale představená bude až příští rok.

Zdroje: AMD (1, 2, 3), Nvidia, VideoCardz

Herní upscaling: AMD hlásí 230 her s FSR, 101 s temporálním FSR 2.0. Titulů s DLSS je přes 250
Ohodnoťte tento článek!
4.8 (96%) 10 hlasů

66 KOMENTÁŘE

  1. Ten dopočet snímků u TV je hrozný. Vypinam to u fullHD filmů i při hraní her na TV. Generuje to hrozně rušivé snímky které jsou horší než nižší fps. Respektove to nefunguje. Mam tedy zkušenost jen d Philips.

    • tak pri filmoch je ine. tam to zvysovanie fps vyzera ako telenovela (soap opera effect). je to kvoli tomu, ze bezne filmy su 24fps a ludia si na to zvykli a hocico ine vyzera neprirodzene, aj ked pre oko/mogoz je plynulejsi pohyb prijemnejsi (hlavne v dynamickych scenach…. napr. skuste si zapnut dopocet snimkov napr. pri sportovych prenosoch, futbal/hokej).

      ale pri hrani hier, kde je bezne minimalne 60fps je to praveze ziadane.
      a ak sa kvoli tomu nevyskytuje nejaky ghosting, tak je zvysenie fps super.

      • No srovnávat to s TV je jaksi jiná buchta. TV si do buferu může natáhnout i několik snímků a tak zná kam se obraz posunuje a může vkládat dopočítané mezi snímky. I kdyby šlo o přímý přenos sportovního pořadu, tak díky této technologii dojde k zpoždění třeba o půl sekundy, což je zanedbatelné, protože se jedná pasivní sledování obrazu bez interakce. U hry v DLSS3 to funguje podobně, ale má to o proti TV svá negativa, protože u hry se počítá s interakcí ve hře. Vysvětlím názorně , nebrat doslovně. Jestli GK potřebuje bez DLSS3 3 jednotky času mezi vygenerovaným snímkem 1 a snímkem 2, Tak s DLSS3 se tento čas nezkrátí, ale díky vykreslení vloženého snímku se ještě zvětší na 4 časové jednotky. Proč? Protože driver musí pozdržet zobrazení snímku 2 který je sice již hotový, ale musí počkat než se vykreslí mezi snímek jako snímek 3. Tak že DLSS3 vyhazuje snímky na monitor v pořadí 1-3-2. Obraz vypadá plynule, ale mohou vznikat artefakty či kolize objektů, ale hlavně dojde k zpoždění. Samozřejmě NV stejně tak AMD mají technologii na snížení tohoto zpoždění. DLSS3 způsobilo, že, technologie k snížení lagů, která měla snížit lagy ve hře aby se zlepšilo hraní o proti stavu kdy použita není, je v případě DLSS3 použita k tomu, aby eliminovala zvětšení lagů o proti situaci kdy DLSS3 a ani technologie lagů požita není.

        • V TV je celý obraz jedna velká bitmapa, kde musíš dopočítat celý mezi snímek. Ve hře jsou v paměti uložené objekty a můžeš je teda rozškatulkovat a dopočítat mezi snímek každému objektu zvlášť.
          To zkracuje dobu zpoždění. S TV se to moc srovnávat nedá.
          Zbytek máš správně, může to mimo jiné způsobit kolize objektů.

          • Tak to ale DLSS 3 nedělá. Pracuje na úrovni bitmapy, až výsledných pixelů.

            Jak DLSS 3, tak televize dostává snímky ve formě bitmapy a v těch bitmapách si „slepě“ hledají pohybové informace porovnáním po sobě jdoucích snímků.

            Rozdíl je v tom, že DLSS 3 má jako pomoc dodatečný zdroj informace o pohybu – pohybové vektory ze hry, což je hodně užitečné. To televize nemají, nebo aspoň ne v takové míře. Můžou zase přebírat informaci o pohybových vektorech z enkódovaného videa (protože všechny reálně používané distribuční formáty mají v rámci komprese pohybovou kompenzaci), ale ty budou o dost méně užitečné než vektory ze hry.

            DLSS 3 může dělat to, že se pro určitou část pixelů rozhoduje mezi tím, kterým pohybovým vektorům věřit (těm ze hry, nebo těm z vlastní analýzy pixelů), nebo které věci třeba řešit tak, že se interpolace ignoruje… Ale nějaké škatulkování na objekty a počítání zvlášť tam v DLSS 3 není, pořád to pracuje až na úrovni pixelů snímku.

            • To asi nepomoze. Napriklad snajprikovi sa to uz x krat vysvetlovalo, ale on stale bude vsade vypisovat ako ma DLSS na 25E skrinke k TV.

  2. DLSS 2.0 vznik březen 2020 (34 měsíců) to dotáhlo na 250 to je růst 7 za měsíc
    FSR vznik březen 2022 (10 měsíců) to dotáhlo na 110 to je růst 11 za měsíc

    Vědět tak jak si to stálo DLSS v 10 měsíci vzniku. Tak by to bylo ještě méně lichotivé srovnání pro DLSS. Prostě sázka i na konzole se AMD asi vyplatila a zřejmě bude i zabijákem další „úspěšné“ technologie os zelených DLSS.

    • Když budeš chtít hrát hru, která podporuje jen DLSS, tak je ti prd platný, že dalších milion her podporuje FSR.

      Navíc je to celé trochu jinak. NVidia má své programátory, kteří u blockbusterů často na konci vývoje vypomáhají s odladěním hry a NVidia tam DLSS právě tímto přístupem protlačí. AMD v tomto není schopno s NVidií soupeřit. Ale jak píšeš, výhodou jsou konzole, kde to mohou implementovat vývojáři hry už v průběhu vývoje sami a navíc je ta implementace jednodušší.

      Časem se asi víc rozšíří FSR kvůli té jednoduchosti a univerzálnosti, zatímco DLSS prostě bude tam, kde se hrou NVidia bude vypomáhat, což budou jen AAA tituly, ty si to mohou dovolit. Nehledě na to, že DLSS 3.0 je bullshit. NVidia si svou technologii nakonec sama pohřbí.

      • Ano je trochu jinak konkrétně Váš výrok „Když budeš chtít hrát hru, která podporuje jen DLSS, tak je ti prd platný, že dalších milion her podporuje FSR.“ je jinak. Jak je uvedeno v článku „FSR 2.x se dá s určitými kompromisy vnutit do her, které používají DLSS 2.x“.

        Nvidia toho moc neprotlačí stejně jak ukazuje historie jejího protlačování. Fůra her je jak na konzoli tak na PC a proto bude mnohem jednodušší a efektivnější se naučit používat FSR pro obě platformy a DLSS poslat k šípku.

        • Ste niektori taky hrrr na odrovnanie DLSS a vobec vas nezaujima kvalita vystupu. Pokial prejde konecne aj AMD na AI riesenie, ktore bude celkovo porovnatelne s tym, co ponuka DLSS, tak kludne. Ale nechapem preco chcete nieco za kazdych okolnosti len preto, ze to ide vsade. Ale vidim, ze si moze AMD zbuchat hocico a hned to bude pre niekoho „alternativa“. Nie je to prvy krat. V minulosti stacilo aj to, ze iba o niecom rozpravali. Ale co uz.

          • Vůbec mne nezajímá kvalita výstupu? Tak to jste z mého příspěvku nabyl špatný dojem. To co ze mne hovoří je minulost co rozhodla podobné případy. Doby kdy jsem viděl jenom kvalitu technologie je už dávno pryč a proto ji nepřeceňuji.

            Obecně je jeden prvek který rozhoduje a to jsou peníze. Když už nechcete vidět ten hloupě opakovaný přístup Nvidie k vlastním technologiím kdy si neuvědomují, že nemají sílu prosadit standard a neustále svůj produkt hloupě nechávají umřít. Zkuste si uvědomit kolik ušetří vývojář když bude moci použít jednu technologii na PC i konzoli.

            Jsem zvědav kdy si ti zelení tupci uvědomí, že i mnohem větší společnosti dávají svoje technologie k dispozici ostatním. A zadarmo.

            • Kazdy monitor s GSync je lepsi v podpore adaptivnej synchronizacie ako vacsina Freesync monitorov, pretoze ju podporuje aj pri nizsich frekvenciach. No a s DLSS je obraz stabilnejsi. Je to o principe na akom funguje. Zatial neviem o lepsom sposobe ako zrekonstruovat obraz, nez je pouzitie AI algoritmov. FSR nema zle vysledky a je pouzitelne, ale celkovou kvalitou na DLSS nedosahuje.

      • Naposeldy čo som čital o použití PhysX v AAA hre boli vlasy v Zaklínač 3. G-Sync ktorý tu podaktorí označovali ako technológiu ktorá zmení herný svet má na alze 29 monitorv proti 437 pre FreeSync. Za pár rokov bude na tom DLSS podobne, ale to tu už bude mať nVidia ďalšiu revolučnú uzavretú technológiu, ktorá sa bude tešiť na budúci nazáujem 🙂

        • To je radost. A pritom PhysXu je skoda, ale asi to uz zvladaju v pohode aj nativne herne engine-y takze uz preneho nebolo miesta. Takze to sa da. A porovnavat cisto iba cislami Freesync vs GSync je dost povrchne. Spytam sa takto. Kolko z tych Freesync monitorov napriklad podporuje adaptivnu synchronizaciu od 30 Hz do hornej hranice monitora? Poviem ti, ze budes rad ak to bude od 40 a je otazka kolko ich je do hornej hranice. Co sa tyka adaptivnej synchronizacie, tak GSync je high-end ako RTX 4090 a Freesync je nieco ako odpoved AMD na RTX 4080. Neprekonava najlepsie na trhu, ale je aspon lacnejsie a hlavne dostacujuce. Ale kto chce to najlepsie, tak nema na vyber. Aj ked aj GSync ma svoju nevyhodu. Nechcel by som mat monitor s aktivnym chladenim. No a DLSS je opat kvalitativne lepsie riesenie ako FSR. Ale o kvalitu ti zrejme nejde. Hlavne ze NV pride o vyhodu, aby si mal radost. 🙂

          • Já jsme žádnou radost nezaznamenal. Zaznamenal jsem hlavně jednom dlouhou šnůru technologických mrtvolek a vyhozených peněz které Nvidia propálila na jejich vývoji. Víte mít někoho opravdu rád také znamená si uvědomit jeho chyby a když mu je vytknete tak to není o radosti ale o tom pomoci tomu druhému aby si ty chyby uvědomil. Nekritické obdiv nebo pochlebování Nvidii nepomůže.

            Nejlepší vyhrávají ale být nejlepší neznamená jenom pár technických parametrů (o kterých píšete) ale je to i výroba a hlavně cena a trh (zákazníci).

            • Ale to neboli vyhodene peniaze. A nie je to ani o nekritickom pohlade na NV. Ide o to, ze ci uz PhysX, tak aj GSync a teraz aj DLSS su technologie, ktore pri svojom prvom nasadeni nemali konkurenciu a ani po prichode konkurencie neboli prekonane co sa tyka kvality. Teda az na PhysX, ktory konkurenciu nemal, ale bol vytlaceny inym sposobom. Ide o to, ze GSync aj DLSS ponuka nieco navyse. BTW je otazne, ci by tu Freesync a FSR boli keby NV nevyvinula aktivitu v tomto smere. Nieco ako ked AMD cez Mantle urychlila vyvoj novych geafickych API. Takze za vyhodene peniaze by som nepovazoval ani jednu z tychto technologii. A co mi vadi je, ze AMD ani pri jednej z nich nedodala kvaIitativne aspon rovnake riesenie. V takom pripade by mi to bolo jedno. Inak sam mam 2 monitori s podporou Freesync a som s nimi spokojny. Ale viem, ze s GSync by som mal viac. Rozhodla cena.

            • Ale byly to vyhození peníze. Sám to potvrzujete tím co píšete („PhysX, tak aj GSync a teraz aj DLSS su technologie, ktore pri svojom prvom nasadeni NEMALI konkurenciu “ je to minulost) kdyby tyto technologie Nvidia nevyvinula tak se nic nestalo protože AMD vyvinulo obecně lepší ekvivalenty těchto technologií. Peníze promrhané na jejich vývoj mohli užít smysluplněji.

            • „kdyby tyto technologie Nvidia nevyvinula tak se nic nestalo protože AMD vyvinulo obecně lepší ekvivalenty těchto technologií. Peníze promrhané na jejich vývoj mohli užít smysluplněji.“

              Podle me je tohle pekna blbost, protoze kdyby neprislo DLSS, tak neprijde ani FSR, protoze tohle prislo jako reakce na DLSS.

              Dalsi perla jsou ty „Obecne lepsi ekvivalenty“ – kdo nezavisle urcuje, ze je to lepsi, ty? 🙂

            • Obecne lepsi v zmysle akoze nevadi, ze su menej kvalitne, ale ze maju sirsi zaber (ze idu aj na inych GPU ako tie od AMD)? Pre mna to neznamena, ze je su lepsie. Vzdy som uprednostnoval viac tie (ako ich volate) technicke parametre. A ako pise aj leppard, bol by tu Freesync, ak by NV neprisla s GSync, bolo by tu FSR, ak by NV neprisla s DLSS? Vsetko su to odpovede AMD na to, co urobila NV. Preco y to mali byt vynodend peniaze. A to, ze si tymto NV uz dlhsie obdobie udrziava naskok po SW stranke, im za to vynueslo pomaly 90% desktopoveho trhu. Naozaj su to vyhodene peniaze?

            • leppard 18.12.2022 at 20:53

              A co Vás vede zaslepenému k názoru že nikdo jiný než Nvidia není schopen vyvinout podobnou technologii. Podotýkám že i Intel který je s grafikami na štíru něco podobného vymyslel. Tady jste vedle jak ta jedle.

              To co je obecně lepší rozhoduje trh. Ten trh který technologicky lepší věci již tolikrát poslal na hřbitov.

            • mareknr 19.12.2022 at 8:38

              Obecně lepší je celá komplex vlastností kterí hrají roli v tom než si něco koupíte. Jsou tam technické parametry ale i cena, dostupnost, servis, kompatibilita, … Právě tyto vlastnosti jsou ty co rozhodli o tom že Nvidia udělala horší produkt než s čím přišla konkurence.

              To co si myslíte Vy nebo leppard to je nepodstatné. Podstatné je to co si myslí většina lidí tedy trh. Tato většina poslala technologie Nvidie na hřbitov a proto to jsou vyhozené peníze.

            • Nepredhazujte mi neco, co jsem nenapsal. Sam jen blabolite s danou premisou, ze AMD je vzdy lepsi. Nicmene s vami to nema cenu, jak tak koukam, ve vasem svete bude AMD vzdy to lepsi, takze zbytecne s vami ztracet cas. 🙂

              S tim druhy odstavcem souhlasim, proto ma jeden skoro 90% trhu s dedikovanymi grafikami, nicmene AMD to neni. Ale jak jsem psal, s timto souhlasim. 🙂

        • To jsi to úplně popletl.
          V Zaklínačovi 3 byla na vlasy použita technologie NVIDIA HairWorks, pokud teda to člověk hrál na GeForce. Nemá to nic společného s PhysX a navíc to byl gimmick, který žral neskutečně výkonu, takže to každej vypínal.
          PhysX byla navíc dobrá věc, škoda, že to NVidia zabila.

          DLSS 2.0 je také o dost lepší než FSR 2, ale tady to NVidia podle mého názoru zabila nesmyslem DLSS 3.0. Bude to propagovat namísto toho předchozího řešení, přitom je to horší. FSR má výhodu univerzálnosti, takže to nakonec vyhraje přesto, že je objektivně horší.

          • Zbytečně poukazujete na jeden detail ve kterém se netrefil. Obecně ale má pravdu. Ukazuje tady celou šňůru technologií kterí Nvidie pohřbila svoji vlastní hloupostí. V dnešní době kdy DLSS má konkurenční ekvivalent nic nenasvědčuje tomu, že se nebude historie opakovat. BOHUŽEL.

            To není nic proti těmto technologiím jejich ztráty mi je líto ale je to namířeno proti managmentu Nvidie kterí se jako oni pověstní blbci pálí o stejní kamna ne jen dvakrát. Tupý management co nechápe technologie ani trh na kterém tak dlouho jejich technologie vystupují.

            • Kolik je poměr NVidia x AMD na Steamu? 90 ku 10?

              Takže se nediv, že NVidia věří, že jsou to právě její proprietární technologie jak NVidia HairWorks, NVidia PhysX, DLSS, RTX, …, které jim k tomuto skvělému výsledku pomohly.
              AMD by nejprve měla urvat víc procent herního trhu než je začneš chvalořečit a NVidii pohřbívat.

            • Je to nepodstatné poměr karet na Steamu. To je vývojáři vcelku jedno. On se soustředí na celý trh. Na to že má trh ne jen na Steamu ale i na dalších klientech ale hlavně i na konzolích. Hlavně ho oslovuje to že jedním nástrojem můlže vyvinout hru pro konzoli i PC. Do toho Nvidia neinvestovala a tam ji AMD doběhlo a proto z dobrých Nvidia technologií dělá jenom nepodstatné vlastnosti jednu po druhé.

            • „jedním nástrojem může vyvinout hru pro konzoli i PC“

              Architektura PC a obou konzolí je podobná. Hru vyvineš úplně stejně a zkompiluješ na jednotlivé platformy. Co říkají vývojáři, že větší práce je s certifikací na PS než-li se samotným vytvořením PS portu hry.
              Navíc, ty vychytávky pro NVidia karty obvykle nejsou povinné, hra se dá hrát i na AMD grafice a navíc za ně NVidia buď zaplatí nebo s nima pomůže. Proto je najdeme především u AAA titulů. Tvrzení, že to NVidii nefunguje, by bylo relevantní, kdyby neměla 90% podíl na trhu hráčských samostatných grafik.

            • Ano, konzole, velke to zaklinadlo, aby ty prodeje dedikovanych grafik nevypadaly tak blbe. Chtelo by to se ale podivat, jak dlouho trva adopce techto technologii z PC na konzole. To uz pak tak vesele neni.

              Na druhou stranu proti konzolim nic nemam, mlademu jsem poridil novou PS5…herni pocitac je dnes podle me zbytecne drahy luxus. Pokud jej clovek samozrejme nevyuziva i k jinym vecem. 🙂

            • Redmarx 18.12.2022 at 20:28

              Podobnost ale nestačí.. Podívejte se jaké měli problémy se cyberpunkem. Tuším, že hovořili snad o 20 verzích. Porodné bolesti byly enormní a tohle je kardinální problém vývoje každé hry. Nvidia karty tu podobnost ještě zmenšují.

            • leppard 18.12.2022 at 20:59

              To není zaklínadlo ale realita před kterou zavíráte oči. Je to realita trhu výroby chipů a vývoje programů. Neochota se domluvit na standardech je problém a stupidní přístup Nvidie a umírání jejich technologií je neefektivita.

              Konzole nemusím jsou pro mne ne standardem a brzdou vývoje her. Bohužel s nimi musíme žít.

            • Kdo definuje co je to standard, DedkHrib? 🙂

              DX od MS je taky povazovan za standard, prestoze jej pouziva jeden OS, resp. OS od jednoho vyrobce.

              Konzole jsou ale vetsi standard na trhu s hrami nez ten vas FSR…ale to vam evidentne nikdy nedocvakne. 🙂

            • Dedekhribb, “Konzole nemusím jsou pro mne ne standardem a brzdou vývoje her. Bohužel s nimi musíme žít.”
              Zamyslel jsi se někdy nad tím, že právě konzolové porty jsou efektivnější a ždímají z HW maximum? Že u konzolové hry musí vývojář přemýšlet nejen o optimalizaci kódu, ale celkové hry? Že to je platforma, která občas nutí lidi přemýšlet a nepublikovat softwarový odpad?
              Doporučuji třeba video od Warhorse Studios: https://www.youtube.com/watch?v=oux1p0R7Fm0. pokud nechceš koukat celé, tak 36:36.

          • NVIDIA nezabila PhysX. V rokoch ked sa pouzival, tak nebola lepsia moznost na real-time fyziku, ktoru bolo mozne akcelerovat na GPU (Havok ponukal iba naskriptovanu fyziku a podporu GPU akceleracie nemal). Dnes uz aj CPU maju dost vysoky vykon a herne engine-y maju svoje vlastne riesenia. Takze skor by som povedal, ze bol PhysX vytlaceny.

            Inak neviem v com vidis DLSS3 ako horsie riesenie? Ved to je DLSS2 + Frame generation+ Reflex. Takze si mozes v hrach s DLSS3 vybrat ci chces aj Frame generation alebo iba DLSS2. Obe sa teda budu casom zlepsovat.

            • Ale zabila a právě tím, že z toho prakticky udělala exkluzivitu pro Nvidia karty. Měli to dát k veřejně dispozici a využívat toho že určují standard.

            • Pokud se bude dát ve hře vybrat DLSS2 nebo DLSS2+Frame generation (DLSS3), potom je vše v pořádku. Obávám se toho, že ve hrách bude jen zatržítko DLSS3 ANO/NE. O „Frame generation“ totiž absolutně nemám zájem, stejně jako jsem to kdysi vypínal na televizi.

            • Havok již nějakou dobu počítá i na GPU, takže nic nebrání použití jejich fyziky, tedy skoro nic…
              Pro představu, poslední cena za Havok fyzikální engine co jsem našel, tak je komerční licence $25,000 …
              Oficiálně mají na stránkách formulář s tím že jednají s každým individuálně, takže je možné že není po každém tahle cena vyžadována a na nekomerční užití je poskytnut zdarma, popřípadě je zahrnuta do licence za herní engine, tuším že Unity…
              PhysX od Nvidia je vždy zdarma a mají velice dobré zázemí pro developery, nehledě na to, že maličký rozdíl je v tom, že Nvidia PhysX je veden jako open source… 😀
              Problém bude v tom, že tyhle informace se moc mezi hráči neřeší, není důvod pro koncového zákazníka znát věci „pod pokličkou“, jen mě vždy udivuje, jak každý má svoji pravdu proč to či ono, ale nezjistí si nejdřív pravdu, přímo „u zdroje“. 🙂

            • @Redmarx: A ono tak v hrach aj je. Nemas nikde DLSS3 on/off. Mozes si zapnut DLSS ako DLSS2 a ak chces tak aj Frame generation a/alebo reflex.

            • @dedekhribb: To, ze sa (GPU) PhysX nepouziva nie je kvoli tomu, ze to bola exkluzivita. Vidim to tak, ze nebol o to zaujem a co bolo treba sa naimplementovalo v hernych engineoch priamo. A ako aj pise overflow, CPU PhysX sa stale bezne pouziva a je uz nejaky cas uvolneny ako open source.

            • Havok patří Microsoftu, ne? Očekávalo se, že ho MS dá do DX12, ale zatim tak neučinil. Asi to chce MS pohřbít.

            • mareknr 19.12.2022 at 9:28

              Ano to vím a proto jsem schválně napsal „z toho prakticky udělala exkluzivitu“. To uvolnění ale přišlo pozdě a nedali svobodu otrokovi ale mrtvole.

            • Redmarx 19.12.2022 at 9:31

              Už jsem Vás chtěl opravit, že je to Intelovo. Ten prodej Havoc Microsoftu mi unikl.

            • @dedekhribb: Praveze mrtvola to nie je. Stale sa PhysX v hrach pouziva. Pozri si zoznam hier, co sem postol overflow a zorad si ho podla datumu release-u hry. Uvidis, ze viacero aktualnych hier ho pouziva. A to vratane aj takych ako je Calisto Protocol, ktory „sponzorovala“ AMD.

            • Podla mba casom prrjde aj AMD na AI a tym padom by sa kvalita vystupu mohla vyrovnat. Potom mi uz nebude vadit ak sa DLSS nebude pouzivat ak bude mat nahradu kvality na rovnakej urovni. A ci ide o rozmazavatko, na DLSS Quality ziadne rozmazanie obrazu nevnimam. A to ani ked je zakladne rozlisenie 2K a teda quality renderuje vo FHD. FSR je slusne pri zakladnom 4K rozliseni a urovni Quality, ale v nizsich rozliseniach uz viac straca aj tu.

          • Hej. Ale aj ked sa to tu explicitne nepise, tak sa bavime o GPU PhysX, ktory sa uz naozaj nepouziva. A myslim, ze tato varianta nie je open source. Preto uz ani nebyva, ako pise Adam, v nastaveniach nieco ako PhysX on/off.

            • Domněnky nejsou fakta!
              … To není pravda, nic jako „jen GPU PhysX“ neexistuje, jediné co, tak dříve to byla Ageia, samostatná HW výpočetní karta, ale to bylo ještě před akvizicí Nvidia…
              Nvidia PhysX API je jen jeden, je to open source.
              Adam to píše správně, ale Ty sis to vyložil po svém… 😀
              To že to není v nastavení ON-OFF je docela logické, když na fyzice staví zbytek v engine, jako by sis chtěl v autě dát volitelně motor, zbytek Ti bude bez něj k ničemu…
              -kdysi se používala PhysX jen na výpočet ambient věcí, bez kterých se dalo obejít a herní fyzika byla oddělená, teď je tohle zakomponované pod jiné nastavení, ale fyzikální engine jede vždy.
              Je to jen API a u jiných grafik se používá nativně CPU, u Nvidia grafik lze v ovladači nastavit „CPU / některá z GPU“, nastavuje se na úrovni ovladače, ne spuštěného software…

              Prosím, zjisti si o čem píšeš, ať nepíšeš nepravdu…
              https://www.nvidia.com/en-gb/geforce/technologies/physx/faq/

            • Tak sa potom nechapeme. To, co pises viem a chapem to tak isto. Co sa tyka open source, tak som to naposledy sledoval este kym vysiel PhysX SDK 4 a chapal som to tak, ze ako open source bola vydana iba vetva, ktora fyziku akceleruje na CPU. Aj podla aktualneho clanku na phoronix to tak vidim:

              https://www.phoronix.com/news/NVIDIA-PhysX-51-Open-Source

              Pise sa tam to co si pamatam aj z minulosti:

              „Since NVIDIA’s acquisition, PhysX has been focused on GPU acceleration and for the once-proprietary SDK, more than a half-decade ago NVIDIA began open-sourcing it as far as the SDK and CPU paths are concerned.“

              Pise sa tam teda o „as far as the SDK and CPU paths are concerned.“

              Co sa tyka nastaveni PhysX tak tie on/off byvaly u nadstavby PhysX tykajuce sa akceleracie na GPU. Tie boli volitelne. Nemusis bat, ze by som si myslel, ze by sa mohla „vypinat“ CPU vetva, ktora sa pouziva na akceleraciu fyziky v hre. To je hovadina. Sam som pouzival po vymene starsiu GPU na akceleraciu fyziky a viem, ze sa na to nastavovala grafika v ovladacoch (alebo kludne aj CPU). Ale aktualne pokial viem, tak GPU vetva PhysXu sa nepouziva a v hrach uz teda nie je cez PhysX fyzika akcelerovana cez GPU. Pamatam si, ze niektore features bolo mozne akcelerovatblen cez CPU, niektore len cez GPU a niektore aj, aj.

            • Hlavne je moja otazka pitom taka, ze ak v ovladacoch nastavim GPU na PhysX, tak ho niektora hra aj vyuzije alebo ho vyuziju len stare hry, kde bola GPU na toto explicitne vyuzita ako Mirroes Egde, Mafia II, Birderlands 2 a podobne? Pretoze mi to pride tak, ze plati ta druha moznost.

            • Přímo v popisu NVIDIA PhysX SDK 5 píší:

              The NVIDIA PhysX SDK is a scalable multi-platform physics solution supporting a wide range of devices, from smartphones to high-end multicore CPUs and GPUs. PhysX is already integrated into some of the most popular game engines, including Unreal Engine, and Unity3D.

              S tím „as far as the SDK and CPU paths are concerned.“, se jednalo právě o to, že se CPU část v SDK uvolnila jako open source a GPU část není open source, nejsou zdrojové kódy a nemůže to člověk kompilovat sám, jen „hotová věc“, pro koncového uživatele se nic nemění.

              Zkusím Ti to vysvětlit tak, že se jedná o „mezivrstvu“, která je optimalizována pro využití vice vláken (optimální minimum je tuším 32 vláken), ale samozřejmě CPU jich má jen „pár“, takže se snáze zahltí a ubírá se tím výkon potřebný k přípravě na vykreslení scény, atd… 🙂

              Sečteno, podtrženo: Primární je počítat na GPU, vždy, od prvního uvedení, až po současnost.

              Takže pro GPU od Nvidia platí co je v ovladači, pro ostatní se počítá na CPU.

              Pro počítání se dříve používala PhysX jen a pouze na ty „vizuální zkrášlovadla“ -matně si vzpomínám že jednou z prvních věcí byla simulace látky, ragdolls a celkove jen vizuální stranka (soft body dynamics), takže se dala celkově vypnout na slabších počítačích, nebo tam, kde dělala problémy (Mirror’s Edge, atd.), tím ON-OFF, ale to je docela už historie.

              Když tak mrkni sem, tady máš i vypsané co se děje na CPU a co na GPU, jestli Tě to zajímá přesněji, jde o to co se implementuje do té či oné hry…
              https://developer.nvidia.com/physx-sdk

            • Ono to je cele o tom, co sa vyvojari rozhodnu naimplementovat do hry. A pokual viem, tak teraz sa uz cez GPU akcelerovane feature cez PhysX nepouzivaju, ale PhysX sa pouziva aj ked „iba“ akcelerovany cez CPU. Kazdopafne dakujem za info. Aspon som si po par rokoch zasa osviezil info o PhysX a som rad, ze heho vyvoj stale pokracuje a ze sa pouziva v hrach.

            • Není vůbec zač.
              Přesně tak, stejně jako s FSR nebo DLSS, vše je o tom, co se vývojář rozhodne implementovat…
              Někdy je to o financích, někdy o tom že je člověk zvyklý už na něco a nebo i o tom, že zjistí co se jak složitě implementuje a raději použije to jednoduší, co má slušně napsanou dokumentaci a popsané api a celkově se s tím slušněji dělá, pokud tedy má vůbec na výběr… 🙂
              Já se strašně dlouho zastával fyziky Havok, že až se prosadí do DX, tak to bude TOP, na jakémkoliv CPU a bez omezeni, ale ve výsledku, to není tak slavné jak se na první pohled může zdát a ty omezení tam jsou, jako u všeho…

    • Akorát že půlka z toho je teprve Upcoming a FSR 2.x využívá funkce, které jsou v těch hrách implementované kvůli DLSS 2.x, že. Dokonce do té míry, že občas jenom stačí přehodit knihovnu pro DLSS za knihovnu pro FSR a funguje to.

      Takže ano, do hry, ve které už funguje DLSS, se to dá dostat rychleji.

      Jinak řečeno bez toho, že v těch hrách už bylo DLSS 2.x, by si mohli fans o 55 titulech s FSR 2.x za deset měsíců nechat jenom zdát.

      Jinak řečeno ještě dlouho potrvá, než počet titulů s FSR 2.x překoná počet titulů s DLSS 2.x.

      Zabils, no, zabijáku.