Nejvýkonnější grafika Nvidia Ampere prý bude mít TDP 350 W, vydání má být v září

83

Nvidia prý výrobcům grafik uvádí, že nejvyšší model Ampere má spotřebu 350 W. Výroba karet snad začne v srpnu, takže vydání by mohlo být v září.

Minulý týden jsme psali o „drboidních“ informacích o grafikách Nvidia GeForce RTX 3000, tedy netrpělivě očekávaných nových 7nm GPU „Ampere“. Mezi nimi byly zmínky o vysokém TDP jdoucím přes 300 W. Ze začátku to vypadalo, že jde o nějakou spekulativní šeptandu. Ale nyní máme informace, že tomu tak prý není a údajně jde přímo o čísla, která sdělila výrobcům karet přímo Nvidia. Nejvýkonnější Ampere s 24GB pamětí má podle těchto dat prý brát až 350 W.

Jak jsme psali minule, podle Igora Walloska z webu igor’sLAB (a předtím poměrně osvědčeného v německém Tom’s Hardware), bude na prvním herním GPU Ampere, čipu GA102, založená trojice karet. Dvě nižší mají mít mírně osekané GPU a paměťovou sběrnici (320, 352 bitů) a 10/11 GB paměti a budou to skoro určitě modely GeForce RTX.

Nejrychlejší Nvidia Ampere: 350 W spotřeby?

Třetí karta má mít plnou 384bitovou sběrnici a údajně 24 GB paměti GDDR6X (což by byla úplně nová technologie). Tato karta by mohla být highendový model GeForce RTX 3080 Ti či RTX 3090, ale také model Titan neurčený pro hráče. Každopádně pro tuto verzi Ampere Wallosek údajně získal rozpis spotřeby, který Nvidia sděluje výrobcům, jenž právě udává, že má mít TDP 350 W.

Nvidia údajně udává pro celou kartu spotřebu 350 W, což je ovšem suma všech komponent. Z toho připadá na samotný čip GA102 „jenom“ 230 W, tedy ne zas tak vysoké číslo – nicméně co se počítá, je celkový příkon. 120 W přidává zbytek karty. Polovina (60 W) jsou paměti GDDR6X, 38 W sežerou ztráty/zahřívání napájecí kaskády (26 W dělají fáze pro GPU, 6 W pro paměti a dalších 6 W minoritní větve).

Zbytek dělají tepelné ztráty v PCB (ty v tomto měřítku už činí celých 15 W) a ventilátory/LED a podobně (7 W). V oněch 350 W tedy není například zahrnuté napájení pro VR headset připojený na port USB-C/VirtuaLink, jak by možná někoho svádělo hádat.

Spotřeba pro top model grafiky Nvidia Ampere podle igorsLAB
Spotřeba pro top model grafiky Nvidia Ampere (Zdroj: igor’sLAB)

Ve finále to u herních karet může být lepší

Zatím bych úplně nepanikařil, protože je pořád možné, že ve finále takto zvýšená spotřeba nebude. Toto by totiž teoreticky mohly být údaje jenom pro ES verze (vzorky), zatímco finální hardware by mohl být na papání elektronů z našich temelínů, komínů a solárů střídmější.

A jak už bylo řečeno, tento 24GB/350W model by mohl skončit v řadě Titan a nás/vás hráčů se ani moc netýkat. Ovšem i nižší karty GeForce s 10GB a 11GB mají být spotřebou blízko – Wallosek odhaduje až 320 W. To by dávalo smysl, jelikož se odečte polovina čipů RAM (30 W).

Uniklý snímek pasivu z chladiče GeForce RTX 3080 Founders Edition
Uniklý snímek pasivu z chladiče GeForce RTX 3080 Founders Edition (Zdroj: LeeJiangLee)

Ovšem samo GPU by také mohlo mít sníženou spotřebu. A úměrně by se pak také snížily ztráty VRM, takže se může stát, že by spotřeba byla třeba standardních 300 W nebo třeba jenom 275 W. A to už by byly z hlediska spotřeby normální probádané vody.

Fotografie GeForce RTX 3080 zdroj Chiphell
Fotografie GeForce RTX 3080 (Zdroj: Chiphell)

Vysoké TDP nevylučuje efektivní architekturu

Zvýšení spotřeby proti , přestože Nvidia přešla ze starého 12nm na novější a efektivnější 7nm proces, může na první pohled vypadat divně. Ovšem nemusí to vůbec znamenat, že Ampere bude neefektivní nebo nepovedená architektura. Nvidia prostě možná jenom využila potenciál, který zvýšení spotřeby poskytuje pro zvýšení výkonu – i u sebeefektivnější architektury.

Lze to přirovnat třeba k 7nm Threadripperům 3000 od AMD, kde se také TDP zvýšilo ze 180–250 W na 280 W. Při vysokém počtu jednotek v GPU nebo jader v obřích „many-core“ CPU totiž i přes hrozivě vypadající TPD na jednu jednotku připadá nízká spotřeba. A tedy běží vlastně s docela vysokou energetickou efektivitou. Jinými slovy, pokud i Pokud budou mít karty Ampere spotřebu 300–350 W, může to být čistě proto, že tomu bude víc než odpovídat nárůst výkonu.

Kolik bude podle vás spotřeba highendových grafik Ampere?

Vydání GeForce RTX 3000 by snad mohlo být v září

Únik fotky kartychlazení naznačuje, že vydání se už přiblížilo. Podle Walloska by zřejmě mohlo nastat někdy v září (septembri). Ovšem toto není přímo únik informace od Nvidie, ale výsledek jeho úvahy/analýzy.

Wallosek uvádí, že karta na fotkách je jeden ze dvou designů, které teď Nvidia zvažuje a zřejmě až někdy v příštím měsíci bude rozhodnuto, který z nich půjde nakonec do výroby. Teoreticky může být vybrána (za trest?) druhá varianta, takže by z odvážného uniklého designu s ventilátory po obou stranách nemuselo nic být. Samotná výroba těchto karet má poté nejspíš začít v srpnu/auguste. Protože jde ale toliko o poučený odhad, berte tato data s rezervou. Může v nich být nějaká odchylka.

Každopádně to ale vypadá, že zhruba by mohly Ampere vyjít prakticky přesně dva roky po Turingu, tedy někdy na přelomu léta a podzimu – odhalení by asi zase mohlo přijít už koncem prázdnin, se začátkem prodeje hardwaru pak o pár týdnů později.

Galerie: Neoficiální vizualizace GeForce RTX 3080 podle uniklé fotografie

Zdroje: igor’sLAB (1, 2), VideoCardz

Nejvýkonnější grafika Nvidia Ampere prý bude mít TDP 350 W, vydání má být v září
Ohodnoťte tento článek!
5 (100%) 12 hlas/ů

83 KOMENTÁŘE

      • Na druhé straně má ta leaknutá karta jenom klasický backplate. Jeslti se tohle uplatní, tak nejspíš až v nějaké budoucí generaci.
        Pokud by GPU používalo externí koprocesor, měl by být co nejblíž k primárnímu čipu kvůli propustnosti, latenci a spotřebě komunikačního rozhraní.

        I když samozřejmě tady asi může Nvidia dost překvapit, je to dost nová oblast, nedá se tak moc hádat, co by mělo smysl a co ne.

        • „Pokud by GPU používalo externí koprocesor, měl by být co nejblíž k primárnímu čipu“
          .. nebylo tu nejake info, ze ma mit amper zpatky SLI mustek? To by mohlo teoreticky propojovat ty 2 chipy dohromdy.

  1. „Vysoké TDP nevylučuje efektivní architekturu“
    .. na druhou stranu ale muze znamenat, ze vyska frekvenci/ chipu neni na svem optimu. A pokud to tak je a plati tech 350W pro 3090, tak pro ty vyssi frekvence musi mit NV nejaky duvod. Jinak, pokud ma referencka 350W, tak custom modely asi nebudou daleko od 400W 🙂

  2. Ta 350w bestie bude king of the hill.
    Amd proti tomu nic nepostavi. Museli by mit tak o 1/3 vic jednotek, aby meli podobny vykon a to by zralo 450w plus minus. Coz je dneska neprijatelne. Ledaze by zase vytahli vodnika edici.
    Tak schvalne jak to bude?
    Sazim, ze nv zustane opet v top endu neporazena.

      • Ale jo, big navi bude skok. Ale bude to dost? Myslim ze ne, maximalne plichta.
        Pokrok tu je. Kdyz si vzpomenu na rx 480 2304 jader vs gtx 1060 1280 jader a vykon byl stejny.
        2304 amd jader vs 1280 nv jader a vykon byl stejny. Pominu frekvence, celkove jako architektura se mi zde vic libi nv a jeji pascall.
        U Radeonu 5700XT je to jiz zajimavejsi.
        2560 jednotek amd zde smele souperi s 2304 jednotkami nv (rtx 2070). A to uz vypada dost vyrovnane.
        Pokud Big Navi bude nejaky skok, budou na tom mozna stejne.
        No a dalsi generaci (jak doufam) se bude muset uz nv snazit.
        A to je dobre, nv doted urcuje ceny jako zjednana.

  3. 350W při přechodu na 7nm by u herních karet bylo šílené… a pro mě naprosté zklamání. Ale otázkou je, proč by to NV dělala. Že by Big Navi byla až takovou hrozbou, kvůli které by Nvidia musela jít takto na krev… to mi nepřijde pravděpodobné.

    • Nevime kolik zere ten udajny „RTX koprocesor“, takze cast toho vysokeho TDP muze jit zatim. Druha varianta je opravdu to, ze NV pritlacila na pilu, aby si nenechala ujit vykonostni korunku jejiho TOP nebo TOP+1 modelu, vzhedem k tomu, ze Big Navi je povedene. Jeji vykon nekde v rozmezi az 40-50% nad 2080Ti nemusi byt pohadka. A mozna je to kombinace obojiho.

      • V to doufám, že těch 350W je jen pro Titan (který bude podle některých zpráv v této generaci nahrazen názvem RTX3090). Ale i těch 320W je dost šílené, vzhledem k tomu, že mám ITX, tak 250W je pro mě osobně limit. Top herní karta má už mnoho generací v řadě právě 250W a najednou to má o třetinu vyskočit nahoru? Mno doufám, že je to jen rumor…

          • Což o to, zdroj mám dostatečný, ale to generované teplo by byl problém. Od big navi osobně nic nečekám, ta může pouze překvapit, Že by NV neměla i v této generaci nejvýkonnější herní kartu je maximálně nepravděpodobné. Ale ta údajná spotřeba je fakt zarážející.

            • Jo hlavne u tebe Colombo 😀
              Zkus tu hlavu zapojit na chvili a zjistis, ze ten 1KW pro TOP sestavu nejsou zadne prehnane naroky, pokud si vezmes peaky tech jednotlivych komponent a prcites k tomu nejakou rezervu…

            • tomboDDino, posledne si mi radil čítať diskusie na červenom webe, tak som skusil pod článkom o nových nVidia kartách – jasne tombík tam tresne stejnú sprostosť o 1kW jak tu. No a červená banda na tom webe to je výkvet, ty zabiješ a ďaľší sa pripojí, že on veru hrat pri spotrebe 1000W nechce, no ste tam odborníci na milimeter, nahádzať po paprčiach…

            • Vladar najdi si jineho „komunikativniho“ idiota, ktery bude s tebou ztracet cas a bude ti vysvetlovat jako nemluvneti o cem ty veci jsou.
              Hezky vecer

            • tomboDDino, jaké veci ty chceš vysvetlovať, už aj na tom červenom webe sa ti smejú, že používaš bulharskú konštantu….
              Hlavne, že sa tam pluskujete za každú sprostosť proti Intelu a nVidii…..

            • Vladar, ze mas v te svoji hlave kompletne vymeteno, to tady vi kazdy, alespon by jsi nemusel zamerne lhat a prekrucovat. Staci kdyz se pravidelne zesmesnujes.
              Ale co cekat od mentalniho retarda…

            • Ale no tak, tomboDDino, však na tom webe sa smejú z teba, ty bulharská konštanta….

            • Vladar, ze mas v te svoji hlave kompletne vymeteno, to tady vi kazdy, alespon by jsi nemusel zamerne lhat a prekrucovat. Staci kdyz se pravidelne zesmesnujes.
              Ale co cekat od mentalniho retarda…

            • tomboDDino, nejak zelenieš, keď už zatneš hovadinu, aspon sa omluv spolubojovníkom….ty konštanto…

            • Sorry debilku, ale s nekym kdo lze jako ty a nevidi si do huby, dal nehodlam ztracet cas.

            • Jasnačka, tomboDDino mele sprostosti o 1kW len aby zhovadil Intel a nVidiu, no po odhalení zrazu nemá čas…rudý zákal…

  4. Moja GTX 1070 @ 2113/9200 – 7.5 TFlops FP32. GCN má nižšie IPC ako Pascal, RDNA zlepšuje FPS v hrách a o to šlo. 5700X vs 2070S aritmetický na strane AMD, FPS na strane NV aj keď je to tesné. Dvojka + 50%, Ampér unknown IPC gains vs Turing. Predčasné závery sú len čisté špekulácie, NV fans bude NV, AMD fans bude lepšia big navi atď.. Teraz keď AMD vie ako sú na tom NV karty bude ladiť, možno prihodí CU z CDNA čipov ak nebude inak navrhnutý, čo asi bude. Ťažko povedať. Ale ako špekuluje tombo tak NV musí mať dôvod takto hnať tie karty. A potom samozrejme ovládače, tam vieme ako si zatiaľ vedú obe spoločnosti… Ja čakám ako sa to vyvinie a podľa toho kúpim. Už je treba. Tá moja je už pred smrťou už to pozorujem mesiac.

        • Vladar, nerikej mi ze jsi tak blbej, ze nedokazes rozlisit mezi tim co je leak a co je „vystavena“ ukazka Fake, kdyz se o tom v tech komentarich bavi.
          Nebo se nauc anglicky, aby jsi rozumel co k tomu rikaji a nedavej tady tebou vymyslene hlouposti.

            • Vladar najdi si jineho „komunikativniho“ idiota, ktery bude s tebou ztracet cas a bude ti vysvetlovat jako nemluvneti o cem ty veci jsou. Hlavne tady nepis tebou vymyslene nesmysly.

            • tomboDDino, toho „komunikativniho“ idiota som už našiel, mrkni na svoje príspevky, jak ti to jede….
              U nVidie napíšeš 400W naprosto v klídku, ale 400W u Radeonky nepripadá v úvahu všakže, typický červený pohled….

            • Vladar, nerikej mi ze jsi tak blbej, ze nedokazes rozlisit mezi tim co je leak a co je „vystavena“ ukazka Fake, kdyz se o tom v tech komentarich bavi.
              Nebo se nauc anglicky, aby jsi rozumel co k tomu rikaji a nedavej tady tebou vymyslene hlouposti.

            • tomboDDino, fake je napríklad tvoje “ odborné “ vyčíslenie spotreby herného PC , na technických weboch šíriš také hovadiny, až si na smiech vlastným červeným bojovníkom….

            • Vladar proc lzes?
              V podcastu, kde se bavi o fake informaci, udelas „unik“ a zacnes to tu prezentovat. Po slusnem upozorneni se zacnes vymlouvat, misto aby jsi rekl „ups“, jsem se splet.
              Na to pak zacnes bezostysne lhat o necem co neni pravda a v te diskusi mi dali za pravdu.
              Jsi uplny idiot a nebo jenom uplneho idiota ze sebe delas?

            • tomboDDino, tak schválne odborníku, popíš nám, jak si sa dostal na spotrebu 1kW pri hernom PC s 10900K + nVidia, bulharskú konštantu vynechaj….

            • Koukám Vladař opět lže.. Tombo píše o 1kW zdroji, Vladař to překroutí na spotřebu:

              tombomino 15.6.2020 at 13:06
              Tak pokudna tom postavis bez kompromisu top herne/vykonou masinu 3090+10900, tak jsi s nejakou rezervou na 1KW zdroji

              c.k. polni marsalek 15.6.2020 at 18:01
              tombo, kde ty chodíš na bludy o 1000W spotrebe 10900 +3090

              Nejlepší je toho tupouna ignorovat, ten ulhanej chudáček tu akorát brečí o pozornost a prakticky všichni ho už ignorují. 😀

            • Aha ho, Ažnoha prifrčal tomboDDinovi urýchlene na pomoc, tak vysvetlite ten 1kW odborníci….
              Slávna červená dvojka na place, ale preslávili ste sa ako trojka, sakra kde ste nechali tretiu červenú opičku ???

            • Ja jej bezne ignoruju, ale kdyz jsem videl ten nesmysl, ktery vydaval za „leak“ k big Navi a pritom to byla diskuse k fake informacim, tak mi to nedalo. K tomu zbytku co tu Vladar o mne vylhal ohledne te diskuse..to si kazdy muze najit a precist, kdyz bude chtit.

            • tomboDDino + ažnoha, ale vám to svedčí….
              Takže, ten 1kW nevieš vysvetlit, hlavne že si kopol do Intelu a nVidie….hrdino…

            • Bohužel už je s ním nuda, jak někdo začne takhle patologicky lhát, tak to je znamení, že argumentačně naprosto selhal. S takovým profláknutým debílkem pak už nemá smysl ztrácet čas.

            • Ty jsi Vladar stale jeste nepochopil, ze ja s tebou o nicem nediskutuji (na to jsou potreba dva), maximalne okomentuju lez nebo nesmysl, ktery tu napises. Tobe vysvetlovat nic nehodlam, nevim proc bych mel ztracet cas vysvetlovanim veci nekomu, kdo jednak nic nechape a jeste to pak spokojene prekrouti a jeho jediny smyl je psat vysmevacne infantilni komentare… Kdo chce, vysvetleni ma samozrejme v te diskusi, o ktere lzes, jak kdyz tiskne. Podobne jako lzes o tom, ze nejaka spotreba je 1KW, jak spravne napsal Aznoh.

            • tomboDDino, sprostosti si nechaj na ten červený web, o kilowate si napísal aj tu, tak to vysvetli tu….
              Krútiš sa jak had, len aby si tie svoje perly nemusel opakovat…
              Si zbabelec,,,,

            • S dovolení bych se zde zastal tombombina.
              Jeho komentář:
              „Tak pokudna tom postavis bez kompromisu top herne/vykonou masinu 3090+10900, tak jsi s nejakou rezervou na 1KW zdroji 😉
              Nicmene ja bych si tipnul, ze big navi na tom nebude o moc lip…“
              Takže když to vezmeme v extrémech, kdy 10900 dokáže odebrat po přetaktování až 350W, k tomu 3090, kde se ukazuje taky nějakých 350W. To je dohromady v maximech 700. K tomu ramky, disky ventilátory atd, dejme tomu 100W když to přeženu. Suma sumárum 800W v extrému.
              Toto značí, že se s tou rezervou opravdu bavíme o 1kW zdroji. Nevidím na tom nic špatného. Samozřejmě se vychází z maximální možné spotřeby, kterou ty komponenty jsou schopny sežrat. Rezerva 200W není nic neobvyklého.
              Takže za mě ano, 1kW zdroj na tuto sestavu je adekvátní.

            • casperdeluxe 16.6.2020 at 13:56
              Nezapominejte ale, ze hrani her neni stress test, tzn. ta realna spotreba pri hrani by tak vysoka nebyla. Nicmene pro takto narocneho uzivatele bych zdroj radeji predimenzoval, nez riskoval, ze mi nejaky peak spali pojistku, nebo primo zdroj. Takze ten 1kW mi prijde rozumna volba.

            • Alich:
              Tak já vždy počítám tu nejvyšší možnou hodnotu. Jistě že to nebude furt na 100%. Ale jsou výkonnové špičky. A hlavně nikdy člověk neví, co na tom PC bude dělat.

    • Ryzen 2700x stock, 32GB RAM, MSI Gaming X 1080Ti, asi 2 disky a 3 SSD – spotreba pri hrani ~460W. Ti ma uvadenych nejakych 333W. Takze kdybych do toho nahazel jeste nejake hovadiny pro streamovani a vymenil CPU za vyse zmineny intel, ktery bych pretaktoval, tak muzu byt klidne o 100W vyse. => 650W zdroje uz bych se tu bal. 1kW zdroj je tedy bezpecna rezerva pro pripadne rozsirovani a pokryti peaku. Nejaky kvalitni 850W zdroj by byl v pohode take, ale nenabizel by uz nejake velke rozsirovani, proto bych se radeji priklanel k tomu 1kW (treba ja tam mam grafiky 2).
      @Vladar, dava ten 1kW zdroj v tomto kontextu smysl?

    • Zas to tak neprožívej. Každý produkt je trochu jiný, nvidia se možná bude snažit natlačit svým věrným zase jinou zbytečnou technologii, nebo prostě jejich 7nm výroba není (ještě) optimální.

        • Pokud NV fixne vykon RT a zvedne rasterizacni vykon 40-50+, jako ze indicije zatim rikaji ze ano, tak ma v principu pro tuhle generaci hotovo. Budou to dobre karty, jen ta spotreba je zatim dost zarazejici, coz by mohlo evokovat snahu to hnat na maximum z duvodu konkurence RDNA2. Uvidime az to vydaji.

        • Lebo su babraci! 😀
          A ted vazne 😉 Ja jsem pro, ze NV tlaci nove technologie, za me v poradku. Ja osobne jsem za danou cenu RTX nevidel pridanou hodnotu a tu nevidim ani ted (jak u NV, tak AMD, s rozdilem konzoli, kde prave budou nove custom chipy), protoze jsem presel na hrani na konzolich a na praci ted GPU nepotrebuji. Mne osobne by ale od nakupu nove NV odrazoval jejich povestny Error 43. Vy asi vite o cem mluvim, Marku 😉

        • Řeknu ti to takto: já považuju za zbytečnou každou technologii, která je zcela závislá na libovůli svého majitele. Můžeš to brát jak chceš, ale majitelé RTX karet si koupili něco, co jim chvilkově a za poměrně velké peníze nabídlo nějaký „bonus“ o značně diskutabilní kvalitě a kvantitě. Nikde nemají zaručeno, že nedopadnou stejně jako majitelé vykuchaných G-sync monitorů, kteří si za horentní sumu koupili vykastrovaný „herní“ monitor – aby se v další generaci výrobce musel sklonit před otevřeným standardem konkurence.

          Takže sorry, já v tom vidím klasický marketing, stejně jako výrobci TV nacpali blbcům 3D telky (po kterých dnes už nikdo ani nevzdechne, protože si každý hejl ověřil, že to je k ničemu, protože je to jednak technologicky nedospělé, druhak pro to není dostatek obsahu – podobnost s RTX je „čistě náhodná“ – dnes se už v rámci křečovitého boje o zájem hráčů bere za „RT“ i věc jako trochu lepší stíny a globální nasvětlení oproti záměrně mírně zkriplenému a nedotaženému rasterizačnímu standardu)

          P.S.: nikomu jeho volbu neberu, jen zde prezentuju vlastní názor (a myslím, že po těch 30 letech pohybu v IT jsem toho viděl už dost a mám na něj docela i právo)

          • tynyt:
            Ty pořád nechápeš, že RT není nic, co by si udělala Nvidie na svém písečku s tím, že kdo chce RT, musí si koupit Nvidia kartu. To přece není vůbec pravda. Nevím, proč se pořád tyto bludy opakují. Holt nějakej idiot to některým nacpal do hlav a tam to bohužel zůstalo…

            • RT je obecný algoritmus, ale RTX je proprietární technologie nvidie – jak na úrovni HW, tak na úrovni SW.

            • Pokud bude RTX vyuzivat „RT rozhrani“ DX12 nebo Vulkanu, tak je to v pohode.

        • silně pochybuju, že AMD bude podporovat RTX. AMD, pokud vím, tvrdilo cosi o podpoře Raytracingu (cokoliv to má znamenat), a to i pro konzole. A opět silně pochybuju, že to bude cokoli jiného, než podobně trapný pokus o „virtuální“ RT jako v podání nvidie – zcela jistě to bude navzájem nekompatibilní (anebo to bude bezzubá implementace na základě DX/Vulcan).

          Znova opakuju, že tyhle větičky a slůvka o „podpoře“ jsou jen bohapustý marketing.

          • No tak teď to teda nechápu. Nvidia RTX je jen název jejich technologie pro výpočet raytracingu, který je standardem v DXR. To, jaký způsob k tomu výpočtu používá Nvidia nebo AMD je celkem jedno. DXR, potažmo raytracing je standard. Není to žádná uzavřená věc Nvidie.
            „zcela jistě to bude navzájem nekompatibilní“ Zase. Nevím co by na tom mělo být kompatibilní nebo nekompatibilní. To je jako říct, že hra s DX12 pojede jen na Nvidii, protože AMD ještě DX12 kartu nemá. A až ji vydá, tak nevím, jestli to DX12 v té hře bude kompatibilní s AMD kartama

            • Tak jinak: myslíš, že současné hry s aktivovaným RTX budou fungovat na hypotetických AMD kartách? A opačně, pokud AMD uvolní nějaký svůj RT standard, bude fungovat na nvidiích?

              Je to jednoduchá a praktická otázka. A historie poměrně jednoznačně říká, jaká bude odpověď.

            • Přád nevím, o jakém standardu mluvíš. RT běží pod DRX, což je standard. Jak si ho ta která firma počítá, je jen jejich věc. Vždyť si můžeš na GTX kartách zapnout RT ve hrách taky. A to nemají žádnou HW akceleraci. Takže pokud to AMD povolí v ovladačích, tak si RT můžeš zapnout i na AMD kartách. A až výjdou AMD grafiky s HW akcelerací RT, tak se vsadím, že si na tom klidně např. Metro zahraješ se zaplým RT. Nevidím důvod, proč ne.

          • Tak oni ani nemohou rici “bude zvladat”, protoze to by museli rici i za jakych pidminek. RT je tak siroky pojem, ze udelat plne raytracovanou hru v kvalite obrazu dnesni rasterizace neni s vykonem nynejsiho PC mozny. Jeste bych poznamenal, ze RT neni jen o obrazu. Proto uvadeji “podpora RT”. Ale nekomu to takto staci a vlastne tim podporuje dalsi vyvoj, ovsem nejen vyvoj 😉

            • Ano, jedna věc je, co se dnes reálně za tzv. „RT“ vydává – většinou je to je jen část týkající se stínů nebo odlesků.
              Druhá věc je, zda to má ve světle dnešního vývoje odpadkových recyklátů „AAA“ her nějaký podstatný význam, zda se forma nestala pánem obsahu.