Radeony RX 6000 by prý mohly dostat „Super-Resolution“ upscaling jako alternativu DLSS

222

AMD při vydání grafik Radeon RX 6000 nepředstavilo nějakou obdobu tensor jader a AI upscalingu DLSS. Ale nějakou formu inteligentního upscaleru prý chystá.

AMD ve středu odhalilo novu generaci grafik s novou architekturou RDNA 2, karty Radeon RX 6800, 6800 XT a 6900 XT. Tato nová GPU přinášejí podporu hardwarově akcelerovaného ray tracingu ve hrách a další nové technologie zastřešené v DirectX 12 Ultimate.

Nespokojenost ovšem možná vzbudila u těch, kterým se zalíbil „AI“ upscaling DLSS u Nvidie. Zatímco ray tracing nové grafiky mají, nějakou formu podobné technologie představitelé AMD neoznámili. Ovšem vypadá to, že by přece jenom mohla dorazit, i když nebude dostupná teď hned při vydání grafik.

Zatím nespecifikovaná technologie „Super-Resolution“

Scott Herkelman z AMD uvedl při odhalení, že firma vyvíjí nějakou funkci typu Super-Resolution, což je termín, pod kterým se míní právě upscaling videa nebo v tomto případě hry z nižšího na vyšší rozlišení. Nějaká základní forma upscalingu je samozřejmě v ovladačích už dostupná nyní, ale zde se tedy asi mluví o nějakém algoritmu nebo řešení s vyšší kvalitou výstupního obrázku. Je tedy možné, že AMD něco, co by mohlo substituovat DLSS, opravdu chystá.

Herkelman zmínil, že by tato technika měla sloužit pro zvýšení snímkové frekvence ve hrách s ray tracingem (protože tyto efekty FPS hodně snižují). Ale pravděpodobně by na ray tracing nebyla vázaná, protože upscaling funguje na bázi bitmap (pixelů), je mu jedno, jak vstup vznikl.

Odhalení grafik AMD Radeon RX 6800 RX 6800 XT a RX 6900 XT 23
Odhalení grafik AMD Radeon RX 6000: zmínka o Super-Resolution upscalingu (Zdroj: AMD)

Více informací přinesl Tom Warren z The Verge, podle kterého AMD testuje novou formu „supersamplingu“ (což není moc vhodný pojem, supersampling znamená spíše opak toho, o čem se bavíme) pro zvýšení výkonu a snímkové frekvence v raytracingových hrách. Podle Warrena má jít o otevřenou a multiplatformní technologii, pod čímž se možná rozumí, že bude použitá nejen v PC ve hrách pod Windows, ale snad také na konzolích, které jak známo běží na GPU od AMD. Upscaling her je v konzolích používán už téměř tradičně, takže dává smysl, aby se Sony a MS pokusily zlepšit jeho kvalitu. Je možné, že výsledek AMD přenese i do ovladačů samostatných grafik Radeon na PC.

AMD tells me it has a new super sampling feature in testing, which is designed to increase performance during ray tracing. The company is promising its super sampling technology will be open and cross-platform, which means it could come to next-gen consoles like the Xbox Series X and PS5. AMD is working with a number of partners on this technology, and it’s expecting strong industry support. Unfortunately, this won’t be ready for the launch of these three new Radeon RX 6000 Series cards. – The Verge

Co není úplně jasné, je povaha tohoto upscalingu, tedy jestli také bude založen na neuronové síti („AI“) jako DLSS. Microsoft už před časem zavedl do DirectX komponentu DirectML (jde o nízkoúrovnější komponentu systémového API pro AI nazvaného WinML), která umožňuje využít hardwarově akcelerované neuronová sítě třeba pro tento účel a spekulovalo se, že by AMD mohlo na této technologii nějaký AI upscaler vybudovat. Ale není to potvrzeno. Dlužno říct, že zatím AMD neoznámilo, že by Radeony RX 6000 měly nějakou zvláštní akceleraci pro neuronové sítě, jako integrují karty GeForce ve formě Tensor jader. Jeho AI upscaling by tudíž musel běžet jen na shaderech (mohl by ale těžit z podpory FP16 a INT8 výpočtů), což znamená méně dostupné výpočetní kapacity a potenciálně také větší dopad na výkon hry.

Microsoft prezentoval AI upscaling založený na neuronové síti a API DirectML minulý rok na GDC 2019 (paradoxně údajně byl vyvinutý na základě neuronové sítě od Nvidie, kterou Microsoft portoval z frameworku TensorFlow na DirectML). Ale nevíme, zde evoluci tohoto přístupu Microsoft nyní nasadí v konzolích, ani zda ji použije AMD. Je samozřejmě možné a asi i pravděpodobné, že by se místo toho použila nějaká nově vyvinutá a trénovaná neuronová síť.

Nvidia upscaling DLSS 2 0 ilustrace 1600
AI upscaling může například hodně (i uměle) zvyšovat ostrost, což je atraktivní efekt, a naopak neprodukuje artefakty jako je pixelizace častá u běžného škálování. Charakter filtru ale může být různý, takže řešení od AMD může být i hodně odlišné (Zdroj: Nvidia)

AI upscaling může být čistě 2D, bez temporálního rozměru DLSS 2.0

Zatím také není jasné, zda v případě, že AMD (nebo MS) vyvine schopný AI upscaler pro real-time použití ve hrách, půjde o čistě spatiální filtr pracující jen s jedním snímkem, jako bylo DLSS 1.0, nebo zda už by třeba bylo začleněno i využití temporálního filtrování pro stabilizaci obrazu, což je stěžejní novinka uvedená v rámci DLSS 2.0. Asi bych čekal, že nejprve se objeví čistě spatialní („2D“) upscaler bez temporální komponenty. A na té by se coby nadstavbě třeba mohlo pracovat v budoucnu.

nvidia dlss 2 0 architecture
Temporální stabilizace v DLSS 2.0

Toto je ale dost ve hvězdách, v tuto chvíli není ještě vůbec jasné, co všechno má ona údajně připravovaná funkce Super-Resolution obnášet. Jak kvalitní tedy výstup bude a zda třeba bude trpět nějakými artefakty a neduhy, to v tuto chvíli nelze říct (respektive, spíš jakými bude trpět, protože každý takovýto postprocessing má kromě pozitivním efektů také ty vedlejší negativní).

V jednom ale mají zdroje těchto informací jasno: „DLSS“ od AMD asi není nijak blízko. Tato technologie se prý objeví až za nějakou dobu, určitě nebude dostupná nyní při uvedení nových karet. O jakém horizontu se bavíme a v jakém stádiu vývoje je, to netušíme.

Galerie: Odhalení grafik AMD Radeon RX 6800, RX 6800 XT a RX 6900 XT

Zdroje: VideoCardz, TheVerge

Radeony RX 6000 by prý mohly dostat „Super-Resolution“ upscaling jako alternativu DLSS
Ohodnoťte tento článek!
3.5 (70%) 20 hlas/ů

222 KOMENTÁŘE

    • vazne? tak karta na nic rozumnyho nema potrebnej hardware. to je jedoduchy. proto se taky mluvi o ML a ne o DL

      Olsan by si mel rozhodne nastudovat rozdil mezi machine learning (ML) a deep learning (neural networks). tyhle trapasy jsou stale castejsi 😀 machine learning je zalozenej na matematickym modelovani. deep learning na neuralnich sitich. radeony budou bez ztraty vykonu klasickych shaderu schopny poustet jen uplne minimalni neural networks. kvalita a velikost site v tomhle pripade znamena kvalitu vystupu. bez dedikovanejch jednotek musis pouzivat cast shader units, ktery ale pak nevyuzivas pro rasterizaci, logicky. cim vetsi sit (lepsi kvalita), tim vic shader units pouzijes pro jeji vyhodnocovani a tim horsi je tvuj rasterizacni vykon. AMD ma tak docela problem, protoze na kvalitu DLSS 2.0 nedosahnou. a pokud se budou chtit priblizit, zacnou ztracet rasterizacni vykon, coz snizi vykonostni prinos toho celyho supersamplingu jako celku – diminishing returns

      proto nam lisa zavesila pod nos spis hovinko. neco na tom smrdi 🙂

      • „machine learning je zalozenej na matematickym modelovani. deep learning na neuralnich sitich“

        Myslím, že trochu vaříš z vody podle toho, jak se něco jmenuje a snažíš se z toho nasiluvyargumentovat předem daný cíl.
        Nevím, odkuď tu distinkci čerpáš, ale řekl bych, že machine learning se dneska klidně používá i pro neuronové sítě. Trošku mi to připomíná, jak jsem jednou neopatrně zkrátil v komentáři „neural networks“ na NN a ty jsi mě pak peskoval, že to musí znamenat nearest neighbor a že jsem debil. Měl bys to fanouškovství míň žrát.

        https://docs.microsoft.com/en-us/windows/win32/direct3d12/dml-intro
        Zkus ctrl-F „neural networks“
        Navíc ani není potvrzený, že to nad tím DirectML bude postavený, tak nevím, proč tě to hned tak vytáčí.

          • A to, že MS vzal model v TensorFlow od Nvidie a portoval to na DirectML nic? Celej svět včetně mobilů, applu ujíždí na neuronovejch sítích, ale když MS do Windows/DirectX přidá podporu pro používání těchhle technologií, tak schválně použije něco jinýho? Nebo prostě když to není od Nvidie, tak to prostě nemůže bejt to pravý?

            https://devblogs.microsoft.com/directx/gaming-with-windows-ml/

            Jako fakt to z mého pohledu vypadá tak, že si v tomhle hraješ na většího experta, než jsi. Buď tomu nerozumíš, nebo rozumíš, ale ostatním chceš nabulíkovat něco jinýho, než jak je to opravdu.

            • „radeony budou bez ztraty vykonu klasickych shaderu schopny poustet jen uplne minimalni neural networks.“

              to plati i pro ty mobily. jses tak naivni, ze si myslis jak pujde naportovat NN vyuzivajici treba 20 TFLOPS na mobilni cip? nebo na GPU jako 6800XT, ktery samo o sobe ma jen 20.74 TFLOPS jako takovy? 😀

            • No a nepíšu v článku, že ty GPU na to mají míň výkonu než Nvidia s tensor jádrama? A že tudíž ta AI bude mít pro sebe míň výkonu a tudíž musí být jendodušší a tak? Takže mě tady peskuješ jenom proto, abys nakonec, když se z toho odeberou ptákoviny, došel jenom k tomu samýmu?

              Co takhle kdybys to příště nejdřív přečetl než tady začneš vytahovat nějaké imaginární problémy?

              Ale vidím, že si tedy aspoň teda ustoupil z toho tvýho nesmyslu, že to DirectML nemůže používat neuronový sítě.
              —————————-
              Už docela dlouho sleduju, jak často zkoušíš tvrdit v komentářích nějakej nesmysl a doufáš, že si to nikdo nevšimne nebo že to nebude schopnej v očích čtenářů vyvrátit. Nebyl ten tvůj první koment tenhle případ?

              Akorát moc nechápu, proč tohle děláš. To, že budeš tady v komentářích tlačit nějaký svoje teorie a alternativní vysvětlení nijak nezmění to, jak to ve skutečnosti funguje. I když se ti tady povede vybudovat úspěšně nějaký Potěmkinovy vesnice, tak k čemu to je? Pokud ti teda nepřijde, že oblbnout několik desítek lidí, co si to přečtou a třeba ty tovje představy převezmou, stojí za to…

            • „Olsan by si mel rozhodne nastudovat rozdil mezi machine learning (ML) a deep learning (neural networks). tyhle trapasy jsou stale castejsi 😀 machine learning je zalozenej na matematickym modelovani. deep learning na neuralnich sitich.“

            • a tam jako rikam ze to neumi NN? 😀 zvlast kdyz hned pod tim pisu, ze to bude umet jen minimalni NN?

              „radeony budou bez ztraty vykonu klasickych shaderu schopny poustet jen uplne minimalni neural networks.“

              zatim to vypada, ze to jsi ty, kterej si tady stavi potemkinovky, protoze mu nekdo sahnul na oblibenou znacku. big navi nema dedikovanou hardwarovou podporu pro akceleraci neural networks. nebude mit stejny shopnosti jako RTX 3000. smir se s tim. nic jinyho ti nezbejva

            • Tak potom nevím, vo co ti celou dobu šlo. Pindáš, že „je to machine learning, takže to není neuronová síť 111one“, pak teda uznáš, že je. Takže si vyvolal tuhle blbou debatu vlastně proč? Proč ses nimral v tom slovíčku „machine learning“, který bylo v té zprávě použité spíš náhodou a AMD ho možná ani nezmínilo vůbec?
              Tvůj problém je, že se prostě chceš za každou cenu hádat, myslím.

            • treba proto, ze ten framework je primarne urcenej pro machine learning a ne deep learning? vetsina tech operatoru neni z DL .. omg. thick headed ..

            • No a to se zase nimráš v těch slovíčkách a snažíš se uměle hádat o ničem.
              BTW, když Nvidia tlačila Deep Learning a Deep Neural Networks (pogoogli a uvidíš) na čipech Pascal, který ještě neměly Tensor Cores a používaly INT8 a FP16 výpočty na klasických shaderech, tj stejně jako teď ten Radeon (asi), tak to byl teda nějakej podvod a fake? 🙂

            • a to jako rikam kde, ze by to mel bejt podvod? zda se, ze se snazis me na necem za kazdou cenu nachytat a kdyz nic, vymejslis si dalsi a dalsi veci ktery jsem „udajne“ nekde rek. hmmm, nice.

              ale kdyz uz jsi to zminil, je potreba to rozvest, uvest to do perspektivy. rekneme, ze nejaka karta od Nvidie ma vykon treba 120 TOPS pro AI vypocty a 20 TFLOPS pro klasicky univerzalni FP32. pokud chces vyhodnocovat NN v realnym case treba pri 100fps, mas budget na jeden snimek 1,2 tera ops ai vykonu. pokud bys to samy ale chtel delat ciste na klasickejch shaderech jako u radeonu a pritom neovlivnit moc vykon klasicky rasterizace, rekneme max 5% propad, mas budget 1 tflops, tzn. pri 100 fps 0.01 tera ops ai vykonu. to je 120x mensi budget (to je samozrejme velmi zjednodusenej priklad)

              abys tu nn byl schopnej vyhodnotit na readeonu v realnym case, bude muset bejt treba 120x mensi (to je jen priklad), nez co zvladne v realnym case nvidia. amd te vodi za nos. stejny jako s raytracingem pocitej s tim, ze jejich alternativa v aspon trochu srovnatelny kvalite prijde az s dalsi generaci grafik, ktery treba uz nejaky ai cores mit budou

            • JO: tady není co chápat.. klasika Maudit, ten nikdy neuzná svůj fail a bude tu do nekonečna lhát a manipulovat. Narušený jedinec.. 😉 Už ten jeho první příspěvek je mimo, kde 90% jeho obsahu píše jen to stejné, co píšeš v článku, že AMD nemá dedikovanou část čipu na akceleraci toho ‚upscalingu‘, jak kdyby to nečetl nebo nepochopil.

            • zacinam si vsimat patternu tady – pokazdy, kdyz se olsan dostane do uzkejch a dojdou mu argumenty, se zazracne zjevi aznohh a snazi se zachranovat pokusama od ad hominem .. heh 😀

              olsane to se stydis psat pod svym jmenem, ze potrebujes tohle alter ego? 😉

            • Maudite a Honza nebude sám kdo Ti tu napíše to samé.
              Obdivuji Jana O. za jeho trpělivost… Snaží se být tak moc korektní, až to z mého pohledu trošku přehání, ale chápu, že nechce rozpoutávat bouře v diskusích.
              Na rozdíl od Tebe… Ty rozpoutáváš jako správný troll bouře rád. občas ani nedomýšlíš co jsi kdy napsal, a tak jsi se už mnohokráte znemožnil a zesměšnil. Myslím že se Jan O. bojí zbytečně. už jsi tak profláknutý, že se nebojím toho, že by Ti ještě někdo věřil. Ano máš své věrné souputníky kteří se nezdráhají zesměšnit s Tebou, ale to je tak vše.
              Já na rozdíl od Honzy nemám nikde zásoby odkazů , kde ukazuje Tvoje bláboly. Já osobně jsem s Tebou vedl mnoho přestřelek již před mnoha lety. Inu již jsme starší a opravdu mi za to nestojíš. Jen mohu dodat nezměnil ses…

            • asi takhle: titulek clanku je co? titulek je tohle:
              „Radeony RX 6000 by prý mohly dostat „Super-Resolution“ upscaling jako alternativu DLSS“

              muze ale AMD veskutecnosti prijit se srovnatelnou alternativou k DLSS, kdyz na to nema dost vykonu v hardwaru? ne

              game, set, match

            • Maudite vážně si neuvědomuješ, že se zesměšňuješ? Nebo jsi vážne tak moc zaslepený nenávistí k AMD, že jsi až hloupý?
              Píše někde Jan O. o tom, že bude srovnatelný, nebo dokonce lepší? Ne nikde o tom nepíše. To že je něco alternativa ještě neznamená, že je něco totožné. To bys měl vědět.

              Jinak uvidíme AMD poslední dobou překvapuje a to v dobrém. Tak třeba překvapí i nyní. Jinak už nyní se myslím ví, že RT u nových Radeonů nebude stejně výkonné. Za mě pořád platí, že je to zajímavá technologie a zatím spíš na dema. i když pravda ve hře CONTROL to vypadá i hezky. Ale jindy mnohdy nerealisticky.

            • njn alternativa k ferrari může být i koloběžka … já bych to tak neprožíval, Maude …

            • Nebuďte pesimisté. Pokud to takto půjde dál, DLSS má reálnou šanci překonat úspěšnou technologií PhysX@GPU. Ta to za cca 7 let služby dotáhla na šedesátku her. Přitom DLSS stačily pouhé 2 roky na skoro dvacítku her!

            • „Radeony RX 6000 BY PRÝ mohly dostat „Super-Resolution“ upscaling jako ALTERNATIVU DLSS“. Zase někdo vidí v titulku víc, než je tam napsáno. Já tedy nevím, ale BY PRÝ dle mého znamená, MOŽNÁ, NE URČITĚ, a ALTERNATIVA nutně neznamená, že to bude stejné kvality. Kdo že se to čílí? Jo Maudit, game, set, skreč, křeč.

      • Na NV je to slusne Fopaux. Vypada na pokracovni „3080 story“.
        Stejne bych ale pockal radeji s celkovym hodnocenim az na vydani Radeonu. Kdo vi ja dopadne tohle a jestli budou mit karty na pokryri aspon castecne poptavky..

            • Ale beze srandy… už jsou zprávy, že nový Radeony na tom budou taky špatně a o dostupnosti novýho Řízka (vzhledem k jeho kvalitě) si taky nedělám iluze..

            • mě vomejou … nakonec ten Intel bude jediný, co jakž takž stíhá vyrábět 😀

            • Aznohh 30.10.2020 at 17:22
              Ano toho se obávám. AMD se povedlo vyprodukovat opravdu dobrý HW, jenže TSMC evidentně není nafukovací
              gogo1963 30.10.2020 at 18:10
              Ano paradoxně tomu tak může být 😀 I když i Intel měl svého času potíže.
              Inu uvidíme… Já osobně jsem naštvaný že nejsou dostupné modely NTB s výbavou AMD o které jsem fakt já či lidi kolem mě měli zájem. Osobně si koupím R7 5800X, ale stejně až na jaře… čili mají čas naskladnit, než přijde raketa od Intelu.

        • Vše nasvědčuje tomu, že v Nvidii už několik týdnů kutí odpověď na prezentaci od AMD. Asi mají dobré špiony když odvolali co ještě neřekli. Ale to jsou jenom moje dohady.

          Jo souhlas. Jenom mentálně retardovaný jedinec by kupoval grafickou kartu před tím než budou známé nezávislé testy od zelených a rudých. AMD zatím dodalo jenom papír se zajímavými informacemi nic více.

          Jsem zvědavý na tu jejich velebenou cache a slibovanou spolupráci AMD grafiky a AMD procesoru. Navíc ta sběrnice noc výkonně nepůsobí. Dokud někdo nezávislý neotestuje červenou i zelenou grafiku tak je zbytečné z toho dělat nějaké závěry.

          To jsem ještě nezmínil aby nebyly problémy s výrobou i u červených. Při tom se modlím ať už ti zelení konečně začnou vyrábět.

            • Nějak ti v té tvé rovnici chybí důležitý aspekt, a to je cena. Podívej se prosím, kolik má stát 6800XT, kolik stojí 3080 a kolik tedy asi bude stát 3080Ti. Nějak mi to nepřipadá, že by to NV mohlo stačit, ty matematiko 🙂

            • DedekHrib 30.10.2020 at 10:14
              viz odpověď rathanuviel 30.10.2020 at 10:22 který to vystihl přesně.
              Já neříkám , že se nechováte slušne, ale tak jak to tu zaznělo. Už jsem zde mnohé upozorňoval proč sem pořád tahají DDW ať si řeší DDW na DDW.

            • No to se pak KOCHREN neumí dost dobře vyjadřovat. Měl by na tom zapracovat.
              Nejsem si vědom, že by bylo proti nějakým pravidlům uvádět linky na legální weby.

            • KOCHREN 30.10.2020 at 10:29

              Tak mi příště nepište „Poprosím slušně i Tebe. “ Zveřejnění linku není nic neslušného ani proti zásadám diskuse.

              Prosím nehrajte si na cenzora který definuje co tady mohu a nemohu zveřejnit. Jestli jsem se provinil tak mi uveďte čím.

            • DedekHrib: Nemusím s vámi souhlasit, ale budu se bít za vaše právo zveřejnit link, jaký chcete. Jak říkala teta Kateřina, kdo chce kam, pomozme mu tam… ona tedy toho řekla víc, ale tohle stačí 😉

            • DedekHrib 30.10.2020 at 10:41
              fjan na cenzora si nehraju ale vadí mi zde neustálé zasírání zdejšího chatu posty z DDW. Fakt pro všechny už si to strčte do prdele a běžte si řešit DDw na DDW… Tohle byl naštěstí jen odkaz. jiní jedinci sem strkají celé pasáže. Doufám že jste již s mou odpovědí spokojen 😉
              Nechodím tam a vím proč. To tu stejně můžou lidi zasírat hovnama z PCT… Už mi to fakt připadá jako nějaká úchylka zde…

            • mikymauz 30.10.2020 at 11:03

              To jste si špatně vyložil. Mně nejde o právo uveřejnit jakýkoliv link. Jedná se mi o to, že jsou pravidla která se mají dodržovat (včetně zveřejňování linků, slušného chování, …). Já pravidla ctím a dodržuju ale KOCHREN mne vyzývá k jejich dodržování (s poukazem na slušnost). Mně to zavání křivým obviněním. To se mi nelíbilo a proto jsme takto reagoval.

            • DedekHrib 30.10.2020 at 11:25
              ??? „Já pravidla ctím a dodržuju ale KOCHREN mne vyzývá k jejich dodržování“
              Já někde řešil pravidla? Já Tě / Vás jen slušně požádal, zda by jste tu mohl NE dávat věci z DDW. Protože to tu děje často a někteří tu serou doslova celé pasáže. Nic víc nic míň… Pletete si pojmy s dojmy…
              Pokud budu chtít sledovat DDW zajdu si přímo tam…

            • „Prosím nehrajte si na cenzora který definuje co tady mohu a nemohu zveřejnit“. Já zapomněl. Vy, když něco napíšete, tak jste to vlastně myslel jinak. Chyba je ve mne, nepoužil jsem vogonský překladač.

            • KOCHREN 30.10.2020 at 11:34

              dlužím Vám omluvu. Když jsme se díval na diskusi tak se vyjadřujete slušně a korektně. To mne přesvědčil, že tohle odpověď myslíte pravdivě.
              Reagoval jsem popudlivě protože kdy někomu řeknete „prosím pomalu“ jako příkaz ke zpomalení. Ve Vašem případe k tomu abych „zeslušněl“. Omlouvám se a Vám beru svá slova zpět jestli to je možné.

              i rathanuviel 30.10.2020 at 10:22 měl pravdu.

            • mikymauz 30.10.2020 at 11:37

              Ano chyba ve Vás je. Jsem rád, že Vám pomohl vogonský překladač. Příště zkuste použít hlavu bez použití komplikované techniky. Stačí jednoduchá úvaha o tom, jak je možné si vložit slova „slušně prosím“ ve spojení s požadavkem na limitací linků když žadatel linky sám používá. Odpouštím Vám. 🙂

            • Hřibě, tu hlavu zkus někdy použít ty … „Poprosím slušne“ bez čárky se opravdu nedá pochopit jinak, než že někdo slušně prosí, tedy ne vulgárně a ty bláboly a omáčku, co jsi vyprodukoval po tom všem, si můžeš nechat na doma … tady jsi už nasral snad všechny … jak to děláš? 😀 … alespoň je vidět, kde chodíš na rozumy .. onehdá jsi pomalu přísahal, že dd neznáš …

            • DedekHrib 30.10.2020 at 13:42
              No musím říci že jste rozvířil stojaté vody 😀 Zaskočil jste mě a fakt jsem čuměl se slovy to si dělá kozy? 😀
              Jinak nejsem urážlivý a omluvu příjmám.
              Co se týče těch odkazů a pod ohledně DDW mi to už fakt vadí. Tady se Jan O. snaží o slušnost a štábní kulturu a je dle mého nevhodné to sem. Přesnější důvody jsem již zmínil nebudu se pro to opakovat.
              PS: jinak toho co tu Gogo1963 napsal jsem si všiml taky 🙂 Máte zajímavý dar a možná i nechtěný nasírat tady lidi 🙂 . A to nikdo nemůže říct, že by jsme se z Gogem zrovna milovali 😀

            • KOCHREN 30.10.2020 at 18:51

              Díky za přijatou pomluvu. U slušných diskutétů by mne to fakt mrzelo kdybych je prudil. Ohledně Goga toho už jsme začal ignorovat. je to pro mne jenom sebestředný nerozuma. Není schopen držet nervy na uzdě a díky expresivům mu hodně mažou příspěvky. Ve s ví zabedněnosti je schopný Vás z toho obvi0novat.

              Ohledně DD wordu nechápu proč Vám vadí. tyhle příspěvky. Stach mne tam odsud vyhodil. To ale není důvod abych tam sešel a něco si z těch jeho příspěvků neodnesl. Promiňte ale připadá mi hloupé je ignorovat zvláště proto, že si myslím, že má bohužel v tomto případě pravdu..

            • Tak to jsem rád, že jste se vypovídal. Až budete mít zase něco na srdci tak ne ozvěte. Mám o čem přemýšlet a to proč reagujete na jak píšete „bezvýznamného kecálka“.
              Přeji pěknou sobotu.

            • Jak jsem Vám jíž dříve psal. Mám sklony k dyslexii. Je to nepříjemné pro mé okolí i pro mne samého. Proto mne hodně lidí zkratkovitě zařazují do podobných nelichotivých kategorií jako činíte i Vy.
              To už jste ale asi zapomněl.
              No nic já se připomenu.

            • DedekHrib 31.10.2020 at 10:38
              Pane Hribe, domnivam se, ze duvodem tohoto vami vyvolaneho vlakna, je jista alergie na weby vedene radeji fanatiky nez nestrannymi fakticky rizenymi redaktory. O cenzuru tu nejde. Vetsina lidi je na tomto webu prave kvuli nestrannosti a faktum, proto jim vadi, ze tu nekdo rozmazava nazory z vyse zmineneho zdroje plneho osobnich dojmu a nenavisti misto faktu.
              Ja jsem take jeden z tech, ktery nerozumi linkovani clanku techto individui sem. Proste o jejich hlouposti nemam zajem a to ani v diskuzi.

              KOCHREN
              Diky za „Nechte DDW na DDW“.

            • Víte nechápu tady tu alergii. Připadal jsem si jako bych řekl, že nevěřím v boha v klubku španělských inkvizitorů. I když si o Stachovi jako o člověku nemyslím nic dobrého nerozumím přístupu tyhle linky ne tyhle ano. Je to taková autocenzura ne nepodobná té co byla v lidech i za komunistů.

              Chápu a rozumím tomu, že dost lidí co je tady bylo vyhoštěno z DDwordu ale bojovat proti linkům je pro mne nepochopitelné a absurdní. Když jsem postnul link tak nemám nic proto tomu aby mi někdo řekl, že tohle co se tam píše je blbost. Ale praktikovat autocenzuru. To do teď nemohli tito lidé překonat pitomé šlápnutí na kuří oko od Stacha?

              Upřímně ale co když mi někdo řekne že nemá rád Intel a proto nechce abych se odvolával na zprávy od Intelu. Mohu tam dosadit AMD, Nvidii, … . Ve všech případech mi z toho vyjde holý nerozum toho kdo tohle napíše. Osobně je mi jedno jaký to je nebo není zdroj co čtu důležité je si z toho co říká odfiltrovat balast a získat pravdu.

              Díky za osvětlení problému.

            • DedekHrib 31.10.2020 at 15:08
              Tak ja to zkusim napsat trosku jinak. Ja osobne, a myslim i hodne lidi tady, vidi v rozdil mezi clanky a komentari typu:
              1) http://www.blabla/zluta-firma-vydala-gpu-s-odpornou-spotrebou
              a reakci pri linkovani „CEO zlute firmy u radeji chodi kanaly“
              A
              2) http://www.blabla/nova-gpu-od-zlute-firmy-prinaseji-zvyseni-vykonu-ale-i-prikonu
              a reakci typu „web blabla nameril tato cisla pri spotrebe a vykonu, nevypada to na konkurenci cipu fialovych“

              Ja treba povazuji 1) za weby neprinasejici zadnou informaci, pouze fanaticky pohled. Za fanatickym pohledem uz nejsou fakta, jen prekrucovani. K cemu mi takova informace je? K nicemu. Proc tim plevelit diskuzi jineho webu? Tak to je presne ta otazka, kterou jste tu dostal.
              Pokud byste ale prinesl fakticky clanek s faktickou reakci, zrejme byste dostal opacnou reakci typu „diky za link, zajimave cteni“.

            • Dobře nazvěme to IT bulvár a seriózní web. To o čem píšete je o postech linků seriózního a bulvárního webu. Diskuse pod nimi je ale o lidech o tom jak píší a jak diskutují. Máte pravdu, že ten IT bulvár více provokuje prudiče v diskusích. Domnívám se ale, že plevelení diskusí je hlavně o úrovni diskutérů. Vliv kvality linku je podružný.

              Když se podíváte na předcházející příspěvek „Aznohh 31.10.2020 at 16:05“ tak je důkazem toho co říkám, že hlavně lidi určují diskusi ne linky. jak vidíte tak někteří lidé mají potřebu plevelit i bez linku na IT bulvár.

              Užijte si zbytek soboty, Petr.

        • Tak to je tězká frustrace z toho že na DDworldu je za nesouhlas v diskusi ban. Ale je to pravda. Obermajera a DD netahejte do diskusí na jiných serverech. Obzvláště ne sem kde jsou články kvalitní a nestranné.

      • U Gaming X Trio bylo > 5ks to může znamenat 6 ale 1000. U grafik, pokud nejde o slevovou akci, kde dle zákona musí uvádět počet ks za tu cenu, počty přesně nemusí uvádět.

        Alza není blbá, Alza je chytrá, pokud dají samotné grafiky za ranec, tak se na ně budou lidi dívat špatně, RTX3080 se třeba asi týden po začátku prodeje objevily v prebuild sestavách, na výběr byla sestava buď s 3900X nebo 10900k, oboje stály 69 tisíc a minimálně jeden den tam vydržel intel a o něco déle AMD. Kdo tedy nutně tu kartu potřeboval šanci měl i krom úvodní minuty prodeje.

        Ale nic neobvyklého při launcu. GTX1080 jsem taky koupil v prvních pár minutách a po dokončení objednávky už žádná nebyla.

  1. DLSS je také SuperSampling, který si pamatuje objekty ve vysokém rozlišení 8K.
    Na video ty neurony nebudou moc vhodné, potřebují i Z-buffer (pro identifikaci objektů dle vzdálenosti od kamery).
    Např. žlutý čtverec 50x50px ve vzdálenosti 2m je batoh, ale ve vzdálenosti 100m je to už bagr, a ve vzdálenosti nad kilometr zase slunce, …

    • Řekl bych, že si to vykládáte dost svérázně. Žlutý čtverec bude žlutým čtvercem vždycky a nikdy se z něj nestane ani batoh, ani bagr, ani slunce.
      Ta neuronová síť nezvyšuje rozlišení tak výrazně, aby tam vznikly takovéhle detaily, navíc to ani nejde udělat. Ta neuronová síť funguje tak, že jsou jí předkládány dva obrázky, jeden v nízkém rozlišení a druhý ve vysokém rozlišení. A jejím cílem je natrénovat se tak, aby z toho nízkého udělala co nejvěrnější podobu toho vysokého (při učení se počítá nějaká celková suma odchylek a asi se dbá i na to, aby každá z odchylek nepřekročila nějakou mez).
      Objekty vůbec nemusí řešit. Ty objekty hrají roli jen v tom trénování, kdy se trénuje na tu konkrétní hru, takže se trénuje jen a pouze obraz, který je složen z objektů ve hře se vyskytujících. Tedy funguje to stejně, jako lidský mozek, který také „vidí“ to, co vidět chce (o čem předpokládá, že tam je). A když člověk nikdy neviděl avokádo, tak ho na obrázku neuvidí a bude si myslet, že vidí třeba divnou hrušku. Stejně tak, ta neuronová síť uvidí jen „objekty“, které se vyskytovaly v obraze při trénování.

        • Ne. Takovou síť byste za den na svém počítači nenatrénoval. To se spustí hra na superpočítači*, po mnoho dnů se trénuje síť a pak se to nastavení natrénované neuronové sítě jen dá do ovladačů. Proto to taky funguje jen u některých her. Tedy u těch, pro které zatím nVidia vytvrénovala tu neuronovou síť.
          * Ve skutečnosti se tedy spíše spustí ta hra na mnoha počítačích, které vygenerují miliony dvojic obrázků (v malém a velkém rozlišení) a na těch obrázcích pak teprve trénuje ten superpočítač tu neuronovou síť.

          • Tohle je ale DLSS 1.0.

            Pro DLSS 2.0 už netřeba trénovat pro konkrétní hru ale od vývojářů stále vyžaduje implementaci, protože ten naučený model zároveň dostává nějaké motion vektory a předešlé snímky, tzn, hra/engine který nemá implementovaný TAA, bude mít s implementací DLSS 2 problém. Hry co TAA využívají mají k dispozici data pro DLSS jen musí zajistit jejich předání grafice.

            Luxusní by bylo kdyby to časem bylo tak „chytré“ že by to nepotřebovalo tyhle externí vstupy a poradilo si jen se snímkem, který jde na výstup

            • Ona to ale ideálně chce, aby se GUI s textem a různé overlaye renderovaly na nativním rozlišení, jinak by to vypadalo trošku divně.
              Teoreticky je možné něco jako DLSS 2.0 udělat agnosticky ke hře (tj. třeba pro použití se starými tituly), ale musel by tam být engine, který by ty pohybové vektory sám hledal v obraze, což není úplně nenáročná a snadná věc. Něco jako MVTools v Avisynth (to je pro filtrování videa ale řeší to stejný problém).

      • Prave že extremne zvyšuje, s jedneho pixelu urobi najnovšie 9 pixelov, 8K na DLSS funguje že 2K obraz natiahne na 8K co je 8 nasobok. Prevedene do ženskej reči ti s 5cm vrabčeka urobi 45cm chobot slona 😀 Hlavne Nvidia tvrdi že je to lepšie ako realny 45cm chobot :D:D:D

        • Trojnásobné rozlišení v jednom směru není žádné extrémní zvětšení.
          Příklad s chobotem jsem nějak nepobral. Velikost objektů se nijak nemění. A jestliže máte v nízkém rozlišení vrabčáka, tak ve větším to opravdu jako slon vypadat nebude.
          Funguje to na tom principu, že když vy zahlédnete vrabčáka, tak i když jste ho neviděl pořádně, tak si ho dokáže představit včetně těch detailů, které jste neviděl. Stejně funguje ta síť. Hledá podobu s něčím, co už viděla. Takže když v nízkém rozlišení vidí ptáka a je naučená, že v té hře pták vypadá jako vrabec, tak „vyrenderuje“ vrabce, byť na první pohled nejste schopen poznat, není-li to třeba sýkorka. A proto to nefunguje obecně, ale vždy jen na konkrétní hře.

      • „Objekty vůbec nemusí řešit. Ty objekty hrají roli jen v tom trénování, kdy se trénuje na tu konkrétní hru“
        Jenom pro pořádek, DLSS 2.0 už se na konkrétní hru netrénuje (což je výhoda, lepší flexibilita).

        • DLSS 2.0 se na konkrétní hru taky trénuje, jen využívá stejnou síť pro všechny podporované hry. Tedy defakto jednu síť trénují obrázky z různých her. Ale aby ta technologie ve hře fungovala, musí se ta síť pro tu hru natrénovat.
          Kdyby se ta síť nemusela trénovat na konkrétní hru, fungovalo by to nativně ve všech hrách, což by jistě bylo krásné, ale bohužel to tak není.

          • To si myslím není přesné.
            Když DLSS 2.0 uváděli, tak přímo říkali, že končí s trénováním pro jednotlivé hry – důvod je jasný, aby nebylo tak pracné/komplikované do hry DLSS přidat. U DLSS 1.0 se muselo trénovat, u DLSS 2.0 je model generický a jenom se integruje interface pro řešení toho upscalingu – hra předává buffer se snímky a pohybové vektory, přebírá si zpátky ty upscalované a filtrované snímky.

            Nvidia přímo potvrdila, že používá generický model stejný pro všechny hry, který dokonce není založený na žádné hře, ale je syntetický, korpus pro trénování je udělaný speciálně pro tuhle roli. Mimo jiné to i řeší problémy, že některé hry nebyly pro různá rozlišení úplně deterministické, takže se jim mohlo stát, že ty kvalitní a aliasované snímky k sobě úplně neseděly a to kazilo trénování. Takže si udělali speciální nezávislá data, kde mají pojištěné, že takové problémy nebudou.

            • To co jsem psal, je přímo z toho brýfinku, co k tomu tehdy byl.
              https://www.nvidia.com/en-us/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/
              Mrkněte na ty bullet pointy, „One Network For All Games – The original DLSS required training the AI network for each new game. DLSS 2.0 trains using non-game-specific content, delivering a generalized network that works across games. This means faster game integrations, and ultimately more DLSS games.“
              (a koukám, že je to i v té české verzi, ale já pro jistotu koukám na originál, protože u ty technické věci, navíc psané často zhuštěně, můžou někd při přeložení byýt špatně zřetelné nebo blbě převedené)

            • Radek Holeček 30.10.2020 at 17:02
              Nvidia z daneho linku: „Jedna síť pro všechny hry – V původní verzi DLSS bylo nutné trénovat umělou inteligenci v každé nové hře. DLSS 2.0 poskytuje zobecněnou síť umělé inteligence, která funguje ve všech hrách. To znamená rychlejší integraci her a více her s podporou DLSS.“

              Radku, ja to chapu tak, jak popisoval Jan. Ono sice v tom textu nejdrive zminuji „trening AI“ a nasledna veta mluvi o „zobecnene siti“, coz neni uplne to same. Ale v tomto kontextu to ctu jako „drive jsme museli trenovat na kazde hre, u ktera jsme chteli podporu DLSS. Ted uz kazdou hru, aby mela podporu DLSS, na trening nepotrebujeme.“
              Ten anglicky text je v tomto vysvetleni jeste jasnejsi, rekl bych.

              EDIT: Diky obema, neco jsem se zase naucil :o)

            • Generecký model na všechny hry nebude mít kvalitní výstup, můžou sice udělat obecný polotovar – těsto. Ale těch asi 20 neuronových vrstev se pak stejně bude muset dotrénovat pro konkrétní hru/level/scénu. Každá hra má různé assety a obecný model neuronů je nezná.

            • Podle mě tam tak velký rozdíl být nemusí. Větší korpus, větší univerzalita a delší trénování by mohžná někdy mohlo být i důležitější než to, že bude síť přizpůsobená přímo assetům hry.
              A každopádně asi je nevhodné, aby se síť trénovala pro každou hrou, pokud chci co největší nasazení ve velkém množství titulů.

    • Podle mě ten algoritmus zohledňuje velikost toho objektu, takže fakt z baťohu slunce neudělá. Navíc když malé rozlišení zvětšíš rozlišení a prdneš ho na větší rozlišení obrazovky, tak bude obraz pořád stejně velkej.

      • Je to klasicky unscaping + prevedenie vykreslenie textu. Dnes to vedia aj mobili s prislušnym softwarom, zameraš kamerou na činsky arabsky turecky text a ono ti ho preloži do preferovanej reči v realnom čase. Čo som porovnaval unscamping od AMD a od Nvidie jediny rozdiel som videl že Nvidia mala prepalenu zelenu a travnik bol zelenejši.

        • Nejdřív upscale v satelitním příjímači, teď zase unscape. Snajpriku, můžeme diskutovat o přínosu té které technologie, může se nám líbit/nelíbit, ale psát setrvale s obměnami kraviny, aniž si zjistím, jak to skutečně funguje… opravdu tě baví dělat ze sebe s prominutím trotla?

          • Ja som si o tom dosť prečital, a patral som po tom čo to je a zistil som že to ma ako satelitny prijmač tak aj moj hifi system domaceho kina so zosilovačom,PS5, Xbox, mobil to ma, samozrejme to ma aj TV. Proste ten unscamping narvali všade, i doo GPU a možno o mesiac to bude i v CPU a možno to o rok narvu aj do DDR5. Ja ked počujem unscamping sa mi nožik vo vrecku otvara. Tu kde sedim pri mne v okruhu 2 metrov su 5 zariadeni s unscapingom, to už znie ako paranoja ale kam sa pozriem sami unscapming! 😀

    • „DLSS je také SuperSampling“
      Definice slova/pojmu Super Sampling ale je, že se na jeden výstupní pixel použije víc vstupních vzorků, tj. například když pro potřeby anti-aliasingu buď vyrenderujte celý snímek na vyšším rozlišení a downslalujete to níž, aby výsledek nebyl zubatý (efektivnější metody to pak dělají trošku jinak, třeba takhle supersamplují jenom hrany a ne celý snímek).

      Tyhle upscalery dělají opak – vezmou snímek z určitým rozlišením a zvětší ho, tj. na z jednoho vstupního vzorku udělají víc než jeden výstupní pixel. Tj. použitá toho názvu super sampling je dost paradoxní, na to jsem narážel. Je to asi motivované tím, že DLSS má anti-aliasingový efekt a většina antialiasignových metod má v názvu „super sampling“ a nějak to splývá, tak to použili.
      Myslím, že se to ještě obhajuje tím, že ten obraz s vysokou kvalitou, proti kterému se neuronová síť dělající ten upscaling trénuje, má vyšší rozlišení*, takže jako v hodně nepřímém smyslu tam princip supersamplingu je, ale je přerušený tím, že během samotné práce upscaleru ve hře už ta síť s těmi obrazy ve vyšším rozlišení nepracuje a už jenom prostě dělá inferencí ze vstupní bitmapy výstupní bitmapu. Tudíž to podle mě je trošku zavádějící.
      Jako pojmy mění svůj význam podle toho, jak se využívají úplně běžně a někdy to jde proti jejich původnímu smyslu, takže je možné, že se to ujme, ale IMHO v případě DLSS je dobré si pamatovat, že tam dochází k tomu škálování z nižšího rozlišení, takže je lepší tomu říkat upscaling.

      * Hmm a když jsem to dopsal, tak mě ještě napadá, že by se ten princip použití více samplů dal najít u DLSS 2.0 (ale ne DLSS 1.0) v tom, že algoritmus pracuje s dalšími vstupy z časově odlišných snímků, tedy ten temporální princip. Ale těch nevím, jestli je tolik, aby převážily třeba ten 2x škálovací faktor (tj. z jednoho vstupního vzorku jsou 4 pixely). A myslím, že to jméno SuperSampling bylo v době DLSS 1.0 opravdu odvozené od toho trénování a od antialiasingového použití.

      • „že tam dochází k tomu škálování z nižšího rozlišení“ – Tady by bylo dobrý připomenout, že NV před dvěma lety naslibovala i režim ‚DLSS 2X‘, který měl fungovat v nativním rozlišení. Maudit to tehdy dokonce použil jako svůj hlavní argument (když po měsíci plácání kravin zjistil, že v DLSS dochází k upscalingu) a tvrdil, že lžeš, protože DLSS 2X bude podle něj určitě defaultní nastavení. 🙂 Mno a po režimu DLSS 2X po dvou letech ani vidu ani slechu…

        • A je to možná dost škoda.
          Jinak by se to ale asi mělo dát nasimulovat. Před pár lety ty ovladače dostaly IIRC možnost použít tzv. Virtual Super-Resolution nebo jak se to jmenovalo, kdy se vykresluje na 2x vyšším rozlišení a pak se škáluje zpátky na nativní rozlišení monitoru. Tak by možná šlo použítohle v kombinaci s DLSS s 2x faktorem. Například jedu na 1980×1080, ale přes tohle, takže grafika vydává 4K obraz, ale s DLSS reálně vykreslovaný na 1920×1080 a pak škálovaný tam a zpátky. Ale asi by to mohlo mít o trochu víc artefaktů/zkreslení než kdyby se prostě vzalo 1920×1080 a neuronová síť to přežvýkala 1:1 a přímo jen dělala ten anti-aliasing efekt a tu temporální stabilizaci.

          • To jsem zkoušel když jsem chtěl vědět jaký výkon bude mít moje 2070S při použití RT a DLSS v 3440×1440, tedy zda přejdu na UWQHD monitor.

            Bohužel pokud v jakékoli hře nastavím DSR rozlišení (na velikosti faktoru DSR nezáleží) tak se automaticky vypne DLSS. Ono to nedává moc smysl, aby to takhle někdo chtěl používat. DLSS primárně slouží ke zvýšení výkonu, DSR slouží ke zvýšení vizuální kvality pokud člověk nemá výkon nebo je ten downsampling rychlejší než třebe MSAA.

            Já třeba používal DSR k tomu abych získal rozumný výsledek za cenu nižšího výkonnostního dopadu když jsem v Prepar3D chtěl odstranit shimmering. 4xMSSA a 4x Sparse Grid SuperSampling s tím dokázaly zatočit, ale za cenu klidně za cenu 70-80% výkonu. DSR pomohlo část shimmeringu odstranit, přitom propad výkonu byl cca 50%. Naštěstí pak vyšla GTX1080 a už to zvládalo MSAA s SGSSAA a od té doby DSR nepoužívám.

      • „Definice slova/pojmu Super Sampling ale je, že se na jeden výstupní pixel použije víc vstupních vzorků, tj. například když pro potřeby anti-aliasingu buď vyrenderujte celý snímek na vyšším rozlišení a downslalujete to níž, aby výsledek nebyl zubatý“
        Neuronová sít trénuje na velkém 8K obrazu (=použije mnohem víc vstupních vzorků). GPU obraz vykreslí rychle v nízkém FullHD, a pak ho DLSS zvětší na střední 4K. Pro získání 4K tedy používá více vzorku, než je na 4K (z 8K na začátku, vytvoří vzorce).

        • To tam myslím zmiňuju, ale těch víc vzorků je tam jenom při trénování (a jsou to samply úplně jiného obrázku…), při samotném upscalingu už pracuje jenom s tou vstupní bitmapou a ta „zkušenost“ s těmi obrazy ve vysokém rozlišení už je využívá jenom nepřímo.

          • DLSS ale dostává mimo jiné „pohybové vektory“ a předchozí snímek. Takže na vstupu není jen prostý 2D obraz který má dopočítat, má naučený, byť obecný model, má k tomu předchozí snímek a také nějaké informace o pohybu v tom snímku, Nevím přesně co nějaký z vývojářů jehož vyjáření jsem četl, zmínil „motion vectors“

            • Jo, to jsem předtím zmiňoval. Jde o to, aby se pro upscalování daly použít i pixely které odpovídají tomu aktuálnímu z předešlých obrázků – když znám pohybový vekktor, tak si ten pohyb můžu kompenzoavat, a najít ten správný pixel, zatímco jinak by ten samý pixel při pohybu v předešlém snímku patřil nějakému jinému objektu.

              Díky těm vektorům je ten temporální filtr/vstup „motion-compensated“.

          • Jste si vědom, že jste reagoval na výsledky v BF5 ve 1440p?
            V tomto konkrétním případě totiž ty vaše uvozovky patří do uvozovek, protože…
            6900XT 201 fps = 111% z 3090;
            6800XT 199 fps = 108% z 3090; 117% z 3080
            6800 184 fps = 102% z 3090; 108% z 3080; 133% z 2080Ti
            3090 180 fps
            3080 169 fps
            2080Ti 138 fps

            Jedná se o jeden z mnoha výsledků, ale čistě v tomoto srovnání AMD nVidii poráží dost brutálně.

            • S tim porazi bych jeste pockal. AMD zcela pochopitelne provedla testy na sve platforme teda s aktivovanym SAM. Jenze z toho tezila jen jejich karta, NVidia ne a podobne na jinych platformach nebude mit z ceho tezit ani karta od AMD.
              Jake budou platformove nezavisle vysledky nevime. Muze to byt podobne a AMD bude stale ve vedeni, ale take nemusi. A rozdily ve vykonu se mohou klidne i otocit ve prospech NVidie.
              K celkovemu zhodnoceni je opravdu treba pockat na realne nezavisle testy.
              Zatim si myslim, ze lze rict, ze at uz vyhraje, kterakoli strana, bude to jen o chlup. A pro AMD je vitezstvi uz to, ze se dokazala vratit zpet do hry, jestli to nakonec bude i vitezstvi v poctu FPS uz neni tak podstatne.

            • @Redmarx: Mimochodem přečti si nejdřív, na co reaguješ – jedná se čistě o jedno konkrétní srovnání. S jasnými čísly. Aznohh ani Crha neřešiil, jestli je to se SAM, nebo bez. Crha jen dal slovo „poráží“ do dvojtých uvozovek a já jen zpochybnil ty uvozovky, nic víc. Něco jako celkový výkon jsme neřešili, bavili jsme se o tom jednom konkrétním screenu, který Aznohh odkazoval.

            • Ja vyjimecne na Crhove „porazi“ nevidim nic spatneho. Nevim za jakym zamerem tam dal uvozovky, ale ja bych je tam klidne dal taky. Z jedne hry nemuzes delat zavery. Navic testy DX11 sami o sobe dnes jsou na uvozovky, trochu za zenitem.

            • Přesně tak redmarxi, v BF poráží, kliknu na další hru a tam už první není. Jako chápu že to je pár FPS sem pár FPS tam. Ale poráží ve všem to né.

            • Ale pánové, pánové, to už se bavíme o něčem jiném ne?

              „Ale poráží ve všem to né.“ – vždyť to ani Aznohh ani já nikde netvrdíme.

              Vaše reakce (obou dvou) se týkala tohoto jednoho velmi konkrétního grafu:
              https://cdn.wccftech.com/wp-content/uploads/2020/10/AMD-Radeon-RX-6900-XT-RX-6800-XT-RX-6800-RDNA-2-Graphics-Card-Benchmarks_WQHD_Battlefield-V.png

              Aznohh přece vůbec nepsal nic o výkonu obecně, nebo napříč všemi možnými hrami, API a rozlišeními.

              Co se týče tohoto jednoho velmi konkrétního grafu, pak je jasné, že výkon RX 6800 (a to dokonce ne XT verze) vyšší než RTX 3090, je jednoznačná a doslova drtivá porážka.

            • rathanuviel: To chce klid, nemusíš to s tím Damage Controlem tak přehánět za každou cenu, nové karty AMD jej nepotřebují.

            • @Pan Jaroslav Crha: Damage control z mé strany? Je to přesně naopak. V tom jednom benchmarku (o kterém je tu celou dobu řeč) dostává nVidia těžce na zadek – RX 6800 (nonXT) těžce poráží RTX 3090. Takže ano, jedná se o damage control, ale z vaší strany. Teda takhle hloupě si naběhnout, to jsem od vás nečekal 😀

            • Kde AMD poráží NVIDII brutálně, vsadím se že když tu hru pustíte na různých grafikách na high refresh rate monitoru tak nikdo nepozná rozdíl.

              Jedna věc je rozdíl v nějakém grafu, druhá věc je rozdíl, který uživatel pozná.

              mimochodem přímo na videu na kanálu AMD je video kde SAM přidává i 11%

            • Rathanuviel – „…dostává nVidia těžce na zadek – RX 6800 (nonXT) těžce poráží RTX 3090…“ rozdíl odhadem 5fps (na úrovni 170-180fps) asi nebude těžce na zadek, pokud to tedy nemyslíte objektivně a v souvislostech 😉 Realitě dle mého spíše odpovídá to https://twitter.com/kopite7kimi/status/1322430436044206080, než tenhle cherrypicking.

            • @mikymauz: Slovo „těžce“ je tam kvůli tomu, že 6800 patří do úplně jiné cenové kategorie. Podle mě, když kartu porazí jiná s cenovkou o 62% nižší, jedná se o těžkou porážku 🙂
              Ale máte pravdu, co se týče fps, je to kosmetický rozdíl 😉

            • DX11 test je tam jen jeden z devíti. Takže je možné, že DX11 bude pořád nVidii sedět více.

            • Podle toho co jsem viděl nedávno na GN, tak NVIDIA paradoxně v DX12 získává napříč měřenými tituly víc než AMD., kterému to moc nejde. Ale ty rozdíly byl v řádech jednotek procent, tzn. bezpředmětné.

          • Milý pane, než začnete vypouštět nějaké informace, tak si je prosím nejdřív ověřte.
            Já jsem vám tady naservíroval odkaz, kde si to rovnou můžete prohlídnout, vy se ani neobtěžujete se tam podívat, řeknete si „Hmm, to bude beztak všechno v DX11…“ a vypustíte to. A vsadím se, že kdybych vám níže nenaservíroval přehled, byl byste ochotren se tu rvát do roztrhání těla, že je to tak. Už vám někdo řekl, že když si něco myslíte, neznamená to automaticky, že je to pravda?

            Takže zde je ten seznam, případně se podívejte sám:
            Battlefield V – DX11
            Borderlands 3 – DX12
            COD: Modern Warfare – DX12
            The Division 2 – DX12
            Doom Eternal – Vulkan
            Forza Horizon 4 – DX12
            Gears 5 – DX12
            Resident Evil 3 – DX12
            Shadow of the Tomb Raider – DX12
            Wolfenstein Youngblood – Vulkan

            Zdroj: https://www.amd.com/en/gaming/graphics-gaming-benchmarks

            • sorry jako až teď to vidím, jako promin ale ten graf dělal pitomec. Má tam vyskočilo dx11 a myslel jsem že to je ve všech hrách, nenapadlo mě že se to mění. Jde vidět, že AMDD fandové se snaží nové karty ukázat v co nejlepším světle.
              Proč dosud neexistují strikntě grafy s RT ON ?

            • @Pan Jaroslav Crha: V pohodě. Nicméně vždy je dobré si své domněnky nejdřívě ověřit, než jde člověk s kůží na trh 🙂
              Např. tato větev triviálních dohadů (o jednoznačně a velmi jednoduše ověřitelných faktech) vůbec nemusla „svinit“ tuto diskuzi.

            • Diskuze je od toho aby svinila, tvoje výplody dole mluví za sebe kdo tu sviní diskuzi.

            • Tak to dole byla slepá větev, vyjádřil jsem se k tomu na konci dostatečně. Víte, já to uznám.
              Nicméně váš slabý pokus o odvedení pozornosti nemění nic na tom, že tato (v základě zbytečná) část diskuze vznikla vaší nepozorností.

      • To jsou chudaci, ani nemaji na to si koupit procesor.
        Jak jinak si vysvetlit, ze porovnavaji 5800X 105W proti 3700X 65W.

        Pak je jeste vysvetleni, ze je to zaplacene a delaji to naschval, ze sice mohli proti 105W procesoru nasadit 105W 3800X starsi generace, ale vysledky by nebyly tak presvedcive, tak radeji napsali lzivou recenzi.

        • Na te recenzi nebude nic lziveho. To ze porovnavaji 105W Zen3 vs 65W Zen3 bude nejspis z duvodu, ze ten ma podle tech jejich testu podobny vykon jak 9900k a dost pochybuji, ze 3800X na tom neco vyznamneji zmeni.
          Spis je to recenze, kterou dostali povolenou od AMD, v ramci PR Zen3. Osobne na tom nevidim nic spatneho (relane testy budou pozdeji) a jsou to hodne zajimave vysledky, byt je to jen syntetika.

          • Jasne, na recenzi hrusek s jabkama neni u AMD nic divnyho! To urcite.

            Hlavne jak maji v textu napsano, ze 5800X je vykonejsi oproti 3800X az o 40% a nasledne maji v grafech az o 40% mene vykonny 3700X. 😀

            Jinak rozdil mezi 3700X a 3800X je minimalne 5%, jenze pak u by to nebylo tech 40%, ze.

            • Podle mě je to prostě daný tím, jaký vzorky dostali. Je ale fakt, že by měli napsat, že existuje výkonnější model (3800X a 3800XT)

            • Protoze holt fandove AMDecka.
              Trochu se obavam, ze i rada „nezavislych“ testu bude nakonec cinklych, minimalne jakmile to budou testovat na Ryzenu 5000. Me jako zakaznika, ktery jsi jde kupovat novou grafiku, preci nezajimaji proprietarni technologie AMD, ktere nevyuziju, ja potrebuji srovnani skutecneho vykonu karet, ktery pujde vyuzit vsude!

              Zatim to AMD pojalo tak, jako kdyby Hunag srovnaval vykon svych a konkurencnich grafik v Hairworks a vyslo mu, ze je NVidia o 100% lepsi, protoze Hairworks bezi jen na nich. 😀

              Nicmene u prezentace novych grafik pri vydani se to snest da, stejne jako Huang prezentoval testy s RT, protoze to tehdy NVidii sedelo podstatne vic. Jestlize ale podobne praktiky zacnou prebirat i novinari, tak by to bylo hodne spatne. Cekame na nezavisle testy, prezentace uz probehla, takze wccftech, at jsi jde s reklamnima clankama nulove vypovidaci hodnoty treba do ….

            • Redmarxi, nekdy si fakt marny 😉
              Hledas konspirace a [SMAZÁNO REDAKCÍ], kde zadne nejsou.

            • „by měli napsat, že existuje výkonnější model (3800X a 3800XT)“

              Proč by tam psali, existují procesory výrazně dražší a mají stejný výkon?

  2. Doufám že 18.11 budou nejaké RX 6800 XT aby to nakoplo Hunga s dostupnoctí RTX 3080 (Ti) jinak mě naštve jak intel s Ice Lake v 2016.
    Nebo to dopadne nejak takto.
    Huang, (křištálová koule) ARM ? Zapomeňte !

        • a to Vítka nikdo nemůže označit za nvidia fandu … naopak …

          když tady Honza Olšan napíše, že Raketa by mohla být o hodně rychlejší v singlu než nový zen, hejno sršňů bylo na něm 😀 (hejno je přehnané, jen jeden sršeň, ale takový „big“ )

          • no 😀 čísla v grafu hezká, taky ale záleží na tom, jak vypadá obraz … ta karta se může tvářit, že něco počítá, ale nemusí to tak být … já bych si počkal … taky jsi napsal „podle všeho“ … tohle je všechno?

            • jo, zatim ano, takze podle vseho sedi 🙂 samozrejme ze moudrejsi budeme az budou venku recenze, copak nekdo kupuje kartu driv? Az budou ke koupi, budeme mit i vsechno potrebne info pro vyber

            • za sebe mam uz alespon celkem jasno, jdu pravdepodobne do 3080Ti pokud AMD nepovoli vyrobcum nereference 6900XT, ta referencni me moc nelaka, 37dB s moznosti minimalniho overclocku protoze ten chladic je malej me moc nelaka, ja potrebuju velkej chladic aby to jelo tak 34dB max, takze tu referencku bych musel podtaktovat a snizit power limit coz delam ted u 5700XT kde Nitro+ je pak krasne ticha a vykon dolu sel minimalne, nabidnou mi li 6900XT Nitro+ tak ji dam pravdepodobne prednost pred nVidia, nenabidnou mi li ji, tak vezmu tu 3080Ti v poradne nereferenci a taky podtaktuju + si pohraju s limitem aby to bylo tichy, toto mi problemy nedela, na co jsem haklivej je prave obraz, tudiz zatim jsem nVidia v poslednich letech ignoroval, pokud se ukaze ze vykonem budou sice na stejno ale kvalita bude hrozna, tak zase bod pro nVidia … mam hroznou radost, ze je tu opravdu konkurence i v highendu a vyberu si pro sebe to lepsi, ne podle znacky

            • Takže NE podle všeho, ale podle jednoho článku, přičemž já našel jiný, který tvrdí něco jiného. 😊

              Ale uvidíme, bude super, když se to potvrdí, nicméně si musíme počkat.

              Jinak 100% souhlas, konkurence je třeba jako sůl. 👍

            • leppard, ano podle prvniho herniho benchmarku, tys nasel teoreticky clanek z nejakych 2 mesicu starych mereni, ja nasel benchmark primo z vykonu te karty, takze zatim podle vseho sedi, az bude tech benchmarku vic, pak se rozroste to podle vseho a budeme moudrejsi, hodne i zalezi jakej typ RT ulohy ktera ta hra vyuzije, takze pak se podle vseho muze zase otocit, jen se zatim porad pise, jak RT bude na AMD tragedie, ono to tak byt nicmene nemusi

            • Já nikde nenapsal, ze RT v podání AMD bude tragédie, to mi zase nepodsouvej. Já vycházím z toho článku, který netuším proč nazýváš teoretický, když taky vychází z měření. Ale to je fuk, já vycházím hlavně z toho, ze při té prezentaci o RT AMD vůbec nemluvilo, což je divné. Zvlášť když už to podporuji také konzole s jejich HW.

            • dneska už jsem četl, že amd nabízí aibákům vyrábět nereferenční 6900 …

            • leppard, ja ti nic nepodsouvam, to porad pise je mysleno k clankum na webu ohledne RT, diskuzi neresim, karty venku jeste nejsou navic brat diskuzi jako prostredek k vyberu je velmi osemetny, protoze ti prijde troll a rekne ze jedina znacka odrazi vykon, takze radeji zustat u tech clanku pri vyberu s tim ze bych asi vynechal nektere redaktory popr. to bral jen jako zpestreni sedeho denniho zivota a rozhodl se podle velkych recenzi, nejlepe alespon 3-4

            • Frank Azor the Alienware co-founders and now Chief Gaming Architect at AMD, confirmed on Twitter that AMD will provide more details on its ray-tracing hardware support and AI supersampling ‘between now and availability dates’ of the Radeon RX 6000 series.

              Azor se kdysi jmenoval sousedův voříšek, ale proč ne, že 😀

      • Přesně tak, má to v tom článku i jasné uvedeno. Tyhle nesmysly se mu snažili podsouvat tihle šašci až v diskusi pod článkem.

        Zajímavé je, ze úplně stejným pacientům nevadí tendenční články na jiných webech, kde taky přispívají. Zřejmě je to dáno tím, ze se jedna o AMD pozitivní weby, tak pak je to přece naprosto v pořádku. 😊

        • tam můžou, je tam většina klikačů z dd … když cítíš tu „morální“ podporu, jedeš 😀 … je úplně jedno, co kdo píše, dokud nejsou recenze … navi výkon evidentně nechybí, pokud bude mít i rt výkon a klidně vyšší, než nvidia, jen dobře, alespoň to pisálkové her nebudou moct ignorovat …do té doby bych si podobné pochechtávání na adresu autorů článků odpustil …

          • „… je úplně jedno, co kdo píše, dokud nejsou recenze … “
            Nesouhlasím. Není jedno, co kdo píše. Tedy v diskuzích víceméně ano.

            Ale napsat do článku de facto „AMD o výkonu v ray tracingu nic neřekla, takže z toho plyne, že to bude nepoužitelné“, to je podle mě čistý bulvár.

            Nebo je podle vás v pořádku tvrdit „nemám žádné informace, takže jasné, že na AMD bude ray tracing nepoužitelný“? To snad ne…

            • A znovu: „AMD o výkonu v ray tracingu nic neřekla, takže z toho plyne, že to bude nepoužitelné“ Kde to má v tom článku uvedené?
              Stále mu podsouváš něco, co vůbec nenapsal. Pak piš něco o bulváru…

            • v posledni kapitole pise, ze pokud u nVidia budes snizovat kvalitu textur kvuli pameti, tak u AMD budes snizovat ci primo vypinat RT kvuli tomu ze nema vykon, zatimco velikost pameti je znama, o RT toho moc nevime, takze to tvrzeni je docela odvazne, hlavne to vypinani tedy

            • no … je to jeho názor, chceš ho nechat popravit? Kurva, kam ten svět spěje?

            • Tak A.Wagner je podle mne mirne zelene pozitivni. Podobne jako nekdo jiny je treba mirne cervene poitivni. Takze bych vychazel z tohoto, pri ‚analyze‘ jeho clanku. I jeho komentar k vykonu s pouzitim SAM, ze je to vlastne „nanic“, protoze si musis koupit CPU od AMD, ktere je „drahe“, neni uplne koser komentar. Kazda firma se snazi pro sebe ziskat nejakou vyhodu. To by se pak muselo stejne komentovat vsechno co nema lidovku, ze je to zbytecne, atd. Clanek ale neni okate zaujaty, coz je podle mne dobre.
              Komentare jsou komentare a relita bude realita. Bude mozna vesele videt srovnani, az karty opravdu vyjdou.. Muzem pak diskutovat o tom, kdo a kde byl ajk blizko nebo se seknul.

            • ano máš pravdu … akorát to „sam“, pokud ho nějak zdokonalí a bude mít výraznější dopad na výkon, může být kontraproduktivní, protože navi nekoupí Inteláci, i kdyby se jinak jevila výhodnější … stavět kolem karty novou platformu, nevím … pokud jde o Vágnera, ten nemá problém přiznat, že se mýlil …

            • „no … je to jeho názor, chceš ho nechat popravit? “
              Nikdo nikoho nepopravuje. Prostě tam napsal věc, kterou si vycucal z prstu a nemá ji nijak podloženou a prezentuje to jako hotový fakt.
              Mě to úplně v pořádku nepřijde, vám ano, každý na to máme jiný názor. A tím bych to asi uzavřel.

            • Tombomino – Wágnera jsem přečetl a článek mi přišel celkem ok. On tam ale nepíše, že SAM je nanic, jen celkem správně poukazuje na to, že abych dosáhl udávaných výsledků (rozuměj nemnoha z těch, co jsou zatím venku), musím mít aktuální platformu od AMD (5xx desku a asi ne 520, 5xxx procesor). Což nemusí být myslím pro někoho, kdo má starší čipset a/nebo 3xxx procesor a uvažuje o upgradu grafiky, vyloženě příznivá zpráva. Pak bude na vážkách, jestli se spokojí s nižším výkonem grafiky, nebo vysolí za novou desku a procesor, nebo se mu vyplatí spíš konkurence. Tohle je ale zapotřebí brát s odstupem a s ohledem na to, kolik ta SAM skutečně přináší – uvádí se 3 až 11%… prostě je potřeba vydržet do reálných testů, jaké budou skutečné výkony, spotřeba, cena…

            • Tak ja vemu jen ten jeho zaver..
              „Dalším marketingovým trikem je to, že většina výkonnostních srovnání je při aktivní Smart Access Memory. “
              .. „lehci“ (nechi rikat lez) manipulace c.1 .. AMD vydalo „doplnkove“ slidy se zapnutym SAM. Zaroven, ale i udava rozdil SAM ON vs SAM OFF v procentualnim udani, takze se da porad udelat obrazek i o vykonu bez SAM. Dale pak jsou jejich grafy z uvodni prezentace, kde josu take cisla bez SAM.
              Komentar presto vzbuzuje pocit, ze AMD vlastne ukazuje ‚defaultne‘ vykon se SAM, coz neni pravda.
              „Neumím si moc představit, že si dnes někdo ke aktuálním highendovým kartám za osmnáct a půl tisíce pořídí osmijádrový procesor a při avizované ceně necelých 16 tisíc korun za dvanáctijádrový Ryzenu 9 5900X už se vám celá sestava docela prodraží. A ani s tím osmijádrem za 13 tisíc to nebude zrovna láce.“
              .. manipulace c.2.. jednak si muzu poridit 5600X za 8k (ne ze bych jeho cenu ohajoval) a jednak zkusenosti z TOP hernich sestav mluvi o opaku, kdy se porizovali 9900K/S/10900K/atd jen pro par fps navic pro fps frikuliny.
              Jeho komentar opet dava vzniknout pocitu, ze je to naprd a ze je to predrazene. (ano z meho pohledu je to naprd, ale ne pro tu skupiu, pro ktereou je to delane)
              „no, ray tracing a DLSS. Pokud by Radeon měl být jednoznačně lepší volbou pro hraní za dva roky na maximálních detailech, proč by tentýž argument neměl platit pro výkon v ray tracingu?“
              .. manipulace c.3 .. Adam nejak zapomel ze RT pridava dalsi pametove naroky. Pokud si dobre pamatuji, tak pridaval neco mezi 0,5-1GB VRAM (v dobe kdy mne to jeste zajimalo to sledovat). Takze pokud neni nevyhoda NV v mensi kapacite VRAM, tak fakt uz nevim v cem. Opomenu fakt, ze realny vykon „AMD RT“ je zatim neznamy. Opomenu i to, ze Amper vubec neposunul pomer mezi Rasterizaci a RT. Krome toho NV opravdu s pametma setri na nepravem miste a nechava „VRAM stagnovat“.
              atd..
              dal se mi to pitvat nechce, ale je celkem zrejme zaujeti autora. Neni extremni ala Obrmajer/DD ale je tam.

        • Navic, kdyz se podivas, jake veci pise treba wccftech, tak je tech par ceskych garazniku jeste v pohode.
          Bohuzel, pokud ve svete pisou media tendencni clanky, tezko tomu u nas bude jinak. Ze si pod clankama prisadi diskuteri uz je ta posledni vec, detail.

          Mozna ale neni chyba ani tak v mediich jako ve vyrobcich. Pokud vyda NVidia grafiku, zacne ji „prodavat“ a presto ji nikdo dlouhe mesice nevidi, logicky se o jejim vykonu zacne spekulovat. Je chyba v tech, ktere ty nepotvrzene spekulace pisi nebo v NVidii, ktera vydava neexistujici produkt, ktery ma jen na papire?
          A druha strana reaguje podobnym zpusobem. AMD vyda 28.10 novou radu grafik, ale pritom vydala prdlajs, grafiky se zacnou prodavat az 18.11 respektive 8.12. A muzeme jen doufat, ze to nebude papirove zahajeni prodeje jako u NVidie.

          A netyka se to jen hardwaru, podivejte se treba na hru Cyberpunk, vzdycky oznami, ze uz to zacnou prodavat za 14 dni a za tyden reknou, sorry, jeste to nemame hotovy a musite jeste par mesicu pockat. 😀 Pak se jeste hrozne divi, kdyz jim hraci na twitteru nadavaji do blbecku.

            • Ty karty jsou … asi v Huangove [Smaz. Red.], jinak krome par prototypu odeslanych recenzentum nikdo zadnou nevidel.

            • jj na aukru a všede možně se asi prodávají prototypy tvojí babky … já taky někdy přeháním, ale tohle je dost trapné …

          • Nevím no, postavit si živobytí na tom, ze se budu systematicky navážet do mnou neoblíbené značky, to musí být dost smutný život. Na to bych, upřímně, žaludek neměl.
            A není web jako web, dost se to pozná podle diskuze pod články – a tady si myslím, ze třeba EHW s články od JO je hodně vyvážený. Proto sem taky chodím nejraději.
            Samozřejmě i tady jsou individua, která se do tebe pustí jen proto, ze si dovolit mít svůj (jiný) názor, ale tak je to asi všude.

            • Jj, JO ma ty clanky docela slusne. Ono se to pozna pomerne jednoduse, NVidia maniaci mu nadavaji do AMDD fanatika a AMDD joudove zase obracene. Uz z toho je jasne videt, ze jak nastve vzdy obe skupiny, ze to nejspis pise, jak to je ve skutecnosti.

              On ale Adam na PCT ma ty clanky taky ok. Jedinej problemovej na PCT je OBR, kterej proste neni normalni a z neznameho duvodu ho tam stale tolerujou.

          • Pletete si pojmy pane. Víte, jaký je rozdíl mezi „vydáním“ a „oznámením/ohlášením“?
            AMD jasně inforomovalo, že 28. 10. 2020 oznámí více o BIG Navi. Pokud vím, o vydání karet v ten den nikdy nehovořili.
            Na této akci pak AMD uvedlo, že karty vydá 18. 11. 2020.
            Takže se prosím nesnažte nikoho uvádět v omyl.

            • Vydani/oznameni klidne to tak muze byt, jak rikas. Ale ve vysledku je to jedno. Pokud chce AMD zabranit spekulacim, ma kartu oznamit, vydat, prodavat najednou. Pak by to recenzenti hned mohli otestovat a k zadnym spekulacim by nemohlo dochazet. Pokud to delaji tak, jak to delaji, je to jen jejich blbost, ze se potom siri na webu, ze to na zadny zazrak nevypada. AMD nic v opacnem smyslu neuvedla, naopak jeste rekli, ze vysoky vykon bude mit karta jen s proprietarni technologii v ramci nove generace procesoru od AMD. Tudiz jeste vetsi zoufalci nez NVidie.

      • Podívejte, pan Vágner to podal tak, že v podstatě ray tracing bude na AMD nepoužitelný. Nic neví a jako redaktor by se tak k tomu měl postavit. On tvrdí, že jsou jenom 2 možnosti. a) je to tak špatné, že to bude nepoužitelné, nebo b) to bude absolutní bomba. Pak rovnou dodává, že b) nepřipadá v úvahu.

        Ano, je to možné. Nicméně vydávat vyloženě nepodložené spekulace za fakta, to je prostě bulvár.

        • “Podívejte, pan Vágner to podal tak, že v podstatě ray tracing bude na AMD nepoužitelný.” Můžeš mi přesně ocitovat konkrétní pasáž, kde něco takové tvrdí?
          Věnoval tomu skoro celou kapitolu a nikde tam tento tvůj výmysl neuvedl. Pokud ti vadí, ze někdo v každém svém článku nemá potřebu vyzdvihovat tvého oblíbeného výrobce do nebes, tak to nečti, ale hlavně mu nepodsouvej něco, co vůbec nenapsal. Každý výrobce / produkt má své plus i minus, a každý si vybere, co mu vyhovuje. Zajímavé je, ze tuto útočnou rétoriku neuplatňuješ i na jiných webech…ikdyž vlastně se ani nedivím. 😊

            • Naprosto v pohodě, naopak máš u mě velké plus, ze to dokážeš přiznat. Tohle se už dnes bohužel moc “nenosí”.

      • „kartu nemá, netestoval, píše dle oficiálních info“
        A teď se zpětně zamyslete na tím, co jste napsal sám.
        Kartu nemá.
        Kartu netestoval.
        Píše dle oficiálních info.
        Ze kterých z výše uvedených faktů plyne, že ray tracing je na těch kartách nepoužitelný? Nebo to AMD v prezentaci někde zmínilo a mě to uniklo?

  3. Výše jsem napsal „Dle českého konkurenčního webu, který má evidentně exkluzivní informace, neumí RX 6800+ ray tracing vůbec.“
    Není to pravda, byla to moje nemístná a hlavně nepravdivá interpretace.
    Omlouvám se za to, že jsem se zachoval přesně tak, jak to sám nemám rád a zasvinil tím zdejší diskuzi.