Nvidia prý výrobcům grafik uvádí, že nejvyšší model Ampere má spotřebu 350 W. Výroba karet snad začne v srpnu, takže vydání by mohlo být v září.
Minulý týden jsme psali o „drboidních“ informacích o grafikách Nvidia GeForce RTX 3000, tedy netrpělivě očekávaných nových 7nm GPU „Ampere“. Mezi nimi byly zmínky o vysokém TDP jdoucím přes 300 W. Ze začátku to vypadalo, že jde o nějakou spekulativní šeptandu. Ale nyní máme informace, že tomu tak prý není a údajně jde přímo o čísla, která sdělila výrobcům karet přímo Nvidia. Nejvýkonnější Ampere s 24GB pamětí má podle těchto dat prý brát až 350 W.
Jak jsme psali minule, podle Igora Walloska z webu igor’sLAB (a předtím poměrně osvědčeného v německém Tom’s Hardware), bude na prvním herním GPU Ampere, čipu GA102, založená trojice karet. Dvě nižší mají mít mírně osekané GPU a paměťovou sběrnici (320, 352 bitů) a 10/11 GB paměti a budou to skoro určitě modely GeForce RTX.
Nejrychlejší Nvidia Ampere: 350 W spotřeby?
Třetí karta má mít plnou 384bitovou sběrnici a údajně 24 GB paměti GDDR6X (což by byla úplně nová technologie). Tato karta by mohla být highendový model GeForce RTX 3080 Ti či RTX 3090, ale také model Titan neurčený pro hráče. Každopádně pro tuto verzi Ampere Wallosek údajně získal rozpis spotřeby, který Nvidia sděluje výrobcům, jenž právě udává, že má mít TDP 350 W.
Nvidia údajně udává pro celou kartu spotřebu 350 W, což je ovšem suma všech komponent. Z toho připadá na samotný čip GA102 „jenom“ 230 W, tedy ne zas tak vysoké číslo – nicméně co se počítá, je celkový příkon. 120 W přidává zbytek karty. Polovina (60 W) jsou paměti GDDR6X, 38 W sežerou ztráty/zahřívání napájecí kaskády (26 W dělají fáze pro GPU, 6 W pro paměti a dalších 6 W minoritní větve).
Zbytek dělají tepelné ztráty v PCB (ty v tomto měřítku už činí celých 15 W) a ventilátory/LED a podobně (7 W). V oněch 350 W tedy není například zahrnuté napájení pro VR headset připojený na port USB-C/VirtuaLink, jak by možná někoho svádělo hádat.

Ve finále to u herních karet může být lepší
Zatím bych úplně nepanikařil, protože je pořád možné, že ve finále takto zvýšená spotřeba nebude. Toto by totiž teoreticky mohly být údaje jenom pro ES verze (vzorky), zatímco finální hardware by mohl být na papání elektronů z našich temelínů, komínů a solárů střídmější.
A jak už bylo řečeno, tento 24GB/350W model by mohl skončit v řadě Titan a nás/vás hráčů se ani moc netýkat. Ovšem i nižší karty GeForce s 10GB a 11GB mají být spotřebou blízko – Wallosek odhaduje až 320 W. To by dávalo smysl, jelikož se odečte polovina čipů RAM (30 W).

Ovšem samo GPU by také mohlo mít sníženou spotřebu. A úměrně by se pak také snížily ztráty VRM, takže se může stát, že by spotřeba byla třeba standardních 300 W nebo třeba jenom 275 W. A to už by byly z hlediska spotřeby normální probádané vody.

Vysoké TDP nevylučuje efektivní architekturu
Zvýšení spotřeby proti , přestože Nvidia přešla ze starého 12nm na novější a efektivnější 7nm proces, může na první pohled vypadat divně. Ovšem nemusí to vůbec znamenat, že Ampere bude neefektivní nebo nepovedená architektura. Nvidia prostě možná jenom využila potenciál, který zvýšení spotřeby poskytuje pro zvýšení výkonu – i u sebeefektivnější architektury.
Lze to přirovnat třeba k 7nm Threadripperům 3000 od AMD, kde se také TDP zvýšilo ze 180–250 W na 280 W. Při vysokém počtu jednotek v GPU nebo jader v obřích „many-core“ CPU totiž i přes hrozivě vypadající TPD na jednu jednotku připadá nízká spotřeba. A tedy běží vlastně s docela vysokou energetickou efektivitou. Jinými slovy, pokud i Pokud budou mít karty Ampere spotřebu 300–350 W, může to být čistě proto, že tomu bude víc než odpovídat nárůst výkonu.
Kolik bude podle vás spotřeba highendových grafik Ampere?
Vydání GeForce RTX 3000 by snad mohlo být v září
Únik fotky karty a chlazení naznačuje, že vydání se už přiblížilo. Podle Walloska by zřejmě mohlo nastat někdy v září (septembri). Ovšem toto není přímo únik informace od Nvidie, ale výsledek jeho úvahy/analýzy.
Wallosek uvádí, že karta na fotkách je jeden ze dvou designů, které teď Nvidia zvažuje a zřejmě až někdy v příštím měsíci bude rozhodnuto, který z nich půjde nakonec do výroby. Teoreticky může být vybrána (za trest?) druhá varianta, takže by z odvážného uniklého designu s ventilátory po obou stranách nemuselo nic být. Samotná výroba těchto karet má poté nejspíš začít v srpnu/auguste. Protože jde ale toliko o poučený odhad, berte tato data s rezervou. Může v nich být nějaká odchylka.
Každopádně to ale vypadá, že zhruba by mohly Ampere vyjít prakticky přesně dva roky po Turingu, tedy někdy na přelomu léta a podzimu – odhalení by asi zase mohlo přijít už koncem prázdnin, se začátkem prodeje hardwaru pak o pár týdnů později.
Galerie: Neoficiální vizualizace GeForce RTX 3080 podle uniklé fotografie
Zdroje: igor’sLAB (1, 2), VideoCardz
ještě jeden zajímavý „rumor“ 😀 https://wccftech.com/nvidia-traversal-coprocessor-rtx-3090-gpu/
Diky gogo.
Po precteni tveho odkazu, by celkem daval smysl ten design chladice.
Chipy na obou stranach pcb. Proto takovy chladic.
Na druhé straně má ta leaknutá karta jenom klasický backplate. Jeslti se tohle uplatní, tak nejspíš až v nějaké budoucí generaci.
Pokud by GPU používalo externí koprocesor, měl by být co nejblíž k primárnímu čipu kvůli propustnosti, latenci a spotřebě komunikačního rozhraní.
I když samozřejmě tady asi může Nvidia dost překvapit, je to dost nová oblast, nedá se tak moc hádat, co by mělo smysl a co ne.
„Pokud by GPU používalo externí koprocesor, měl by být co nejblíž k primárnímu čipu“
.. nebylo tu nejake info, ze ma mit amper zpatky SLI mustek? To by mohlo teoreticky propojovat ty 2 chipy dohromdy.
„Vysoké TDP nevylučuje efektivní architekturu“
.. na druhou stranu ale muze znamenat, ze vyska frekvenci/ chipu neni na svem optimu. A pokud to tak je a plati tech 350W pro 3090, tak pro ty vyssi frekvence musi mit NV nejaky duvod. Jinak, pokud ma referencka 350W, tak custom modely asi nebudou daleko od 400W 🙂
Ta 350w bestie bude king of the hill.
Amd proti tomu nic nepostavi. Museli by mit tak o 1/3 vic jednotek, aby meli podobny vykon a to by zralo 450w plus minus. Coz je dneska neprijatelne. Ledaze by zase vytahli vodnika edici.
Tak schvalne jak to bude?
Sazim, ze nv zustane opet v top endu neporazena.
Big Navi = Big Brek, neboli Velký Plač…
Ale jo, big navi bude skok. Ale bude to dost? Myslim ze ne, maximalne plichta.
Pokrok tu je. Kdyz si vzpomenu na rx 480 2304 jader vs gtx 1060 1280 jader a vykon byl stejny.
2304 amd jader vs 1280 nv jader a vykon byl stejny. Pominu frekvence, celkove jako architektura se mi zde vic libi nv a jeji pascall.
U Radeonu 5700XT je to jiz zajimavejsi.
2560 jednotek amd zde smele souperi s 2304 jednotkami nv (rtx 2070). A to uz vypada dost vyrovnane.
Pokud Big Navi bude nejaky skok, budou na tom mozna stejne.
No a dalsi generaci (jak doufam) se bude muset uz nv snazit.
A to je dobre, nv doted urcuje ceny jako zjednana.
Ano, cena je to jedinné, co sa dá nVidii vyčítať, daň za neschopnost AMD.
Jasně a k tomu softwarový raytracing, děkuji nechci.
350W při přechodu na 7nm by u herních karet bylo šílené… a pro mě naprosté zklamání. Ale otázkou je, proč by to NV dělala. Že by Big Navi byla až takovou hrozbou, kvůli které by Nvidia musela jít takto na krev… to mi nepřijde pravděpodobné.
Nevime kolik zere ten udajny „RTX koprocesor“, takze cast toho vysokeho TDP muze jit zatim. Druha varianta je opravdu to, ze NV pritlacila na pilu, aby si nenechala ujit vykonostni korunku jejiho TOP nebo TOP+1 modelu, vzhedem k tomu, ze Big Navi je povedene. Jeji vykon nekde v rozmezi az 40-50% nad 2080Ti nemusi byt pohadka. A mozna je to kombinace obojiho.
A co kdyz se tech 350W tyka top modelu? Titan s rtx a koprocesorem a top vykon. Pokud by to uvedene tdp platilo pro top kartu, zas tak hrozne bych to nevidel.
350W se ma tykat 3090 drive znameho jako „Ti“, nikoliv Titan. 320W ma byt zase celkova spotreba 3080, takze dalsi mamutice na obzoru 🙂
Aha. Diky.
Takhle – podle 24GB paměti bych si tipoval Titan, ale… to PCB, o kterém ty informace jsou, prý je určené pro partnerské výrobce (a nereferenční karty). Poslední Titany dělala Nvidia sama a partnterům je nenechala.
Takže jestli je to Titan, tak by zase mohl být blíž GeForckám, než byl Titan RTX a Titan V.
Možná něco jako Titan X(Xp).
Ale zatím je to hádání z dost malých kousků mozaiky, takový „podá ho faráři“… nebo: „dodá ho v trakaři“. Takže s velkou, velkou rezervou od traktoru.
3090 bude dřívější Titan, viz 24GB vram, tolik do 3080Ti asi určitě nedají…
edit: JO byl rychlejší 😉
Ale zatim novy Titan taky neni vylouceny 😉
A ten by žral kolik? 😀
To nevim :))
Ale ted jsem koukal na jeden podcast a tam taky rikali, ze 3090 by mel byt „byvaly“ Titan..ale cekove byli k tem leakum dost skepticti a davali tomu tak 50:50 sanci.
V to doufám, že těch 350W je jen pro Titan (který bude podle některých zpráv v této generaci nahrazen názvem RTX3090). Ale i těch 320W je dost šílené, vzhledem k tomu, že mám ITX, tak 250W je pro mě osobně limit. Top herní karta má už mnoho generací v řadě právě 250W a najednou to má o třetinu vyskočit nahoru? Mno doufám, že je to jen rumor…
Tak pokudna tom postavis bez kompromisu top herne/vykonou masinu 3090+10900, tak jsi s nejakou rezervou na 1KW zdroji 😉
Nicmene ja bych si tipnul, ze big navi na tom nebude o moc lip…
On blekotal 2kW….
Což o to, zdroj mám dostatečný, ale to generované teplo by byl problém. Od big navi osobně nic nečekám, ta může pouze překvapit, Že by NV neměla i v této generaci nejvýkonnější herní kartu je maximálně nepravděpodobné. Ale ta údajná spotřeba je fakt zarážející.
tombo, kde ty chodíš na bludy o 1000W spotrebe 10900 +3090 ? Si musel mať fajnove pod čapicou…co takto občas použiť makovičku….
Jo hlavne u tebe Colombo 😀
Zkus tu hlavu zapojit na chvili a zjistis, ze ten 1KW pro TOP sestavu nejsou zadne prehnane naroky, pokud si vezmes peaky tech jednotlivych komponent a prcites k tomu nejakou rezervu…
tomboDDino, posledne si mi radil čítať diskusie na červenom webe, tak som skusil pod článkom o nových nVidia kartách – jasne tombík tam tresne stejnú sprostosť o 1kW jak tu. No a červená banda na tom webe to je výkvet, ty zabiješ a ďaľší sa pripojí, že on veru hrat pri spotrebe 1000W nechce, no ste tam odborníci na milimeter, nahádzať po paprčiach…
Vladar najdi si jineho „komunikativniho“ idiota, ktery bude s tebou ztracet cas a bude ti vysvetlovat jako nemluvneti o cem ty veci jsou.
Hezky vecer
tomboDDino, jaké veci ty chceš vysvetlovať, už aj na tom červenom webe sa ti smejú, že používaš bulharskú konštantu….
Hlavne, že sa tam pluskujete za každú sprostosť proti Intelu a nVidii…..
Vladar, ze mas v te svoji hlave kompletne vymeteno, to tady vi kazdy, alespon by jsi nemusel zamerne lhat a prekrucovat. Staci kdyz se pravidelne zesmesnujes.
Ale co cekat od mentalniho retarda…
Ale no tak, tomboDDino, však na tom webe sa smejú z teba, ty bulharská konštanta….
Vladar, ze mas v te svoji hlave kompletne vymeteno, to tady vi kazdy, alespon by jsi nemusel zamerne lhat a prekrucovat. Staci kdyz se pravidelne zesmesnujes.
Ale co cekat od mentalniho retarda…
tomboDDino, nejak zelenieš, keď už zatneš hovadinu, aspon sa omluv spolubojovníkom….ty konštanto…
Sorry debilku, ale s nekym kdo lze jako ty a nevidi si do huby, dal nehodlam ztracet cas.
Jasnačka, tomboDDino mele sprostosti o 1kW len aby zhovadil Intel a nVidiu, no po odhalení zrazu nemá čas…rudý zákal…
Moja GTX 1070 @ 2113/9200 – 7.5 TFlops FP32. GCN má nižšie IPC ako Pascal, RDNA zlepšuje FPS v hrách a o to šlo. 5700X vs 2070S aritmetický na strane AMD, FPS na strane NV aj keď je to tesné. Dvojka + 50%, Ampér unknown IPC gains vs Turing. Predčasné závery sú len čisté špekulácie, NV fans bude NV, AMD fans bude lepšia big navi atď.. Teraz keď AMD vie ako sú na tom NV karty bude ladiť, možno prihodí CU z CDNA čipov ak nebude inak navrhnutý, čo asi bude. Ťažko povedať. Ale ako špekuluje tombo tak NV musí mať dôvod takto hnať tie karty. A potom samozrejme ovládače, tam vieme ako si zatiaľ vedú obe spoločnosti… Ja čakám ako sa to vyvinie a podľa toho kúpim. Už je treba. Tá moja je už pred smrťou už to pozorujem mesiac.
Souhlas, zatím jsou to všechno jen spekulace. Mně se líbí ta, že nvidia „musí“ jít na 350W, protože to by znamenalo konkurenci i v hiendu – ten je mi úplně šumák, ale tím pádem by zřejmě došlo „sesouváním pyramidy“ i na boj ve střední třídě, a to už zajímavé bude hodně, protože by mohly příjemně padat ceny.
bodejť bys měl pravdu
Tak 350 W by nebylo zase tak nic nového, nereferenční 2080 Ti mají 300-330 W TDP a některé modely i víc, možná se Nvidia nechala inspirovat…
no jo..ale pak budes mit nereferencni 3090 za 400W 🙂
Právě že, tímto by jim na to Nvidia už nenechala místo.
Treba se ten limit TDP ale opravdu zvednul…
Podle tech uniku ma 3080 cucat celkove az 320W
Ono v generaci Turing jsou Founders Edition karty taky přetočené (s vyšším TDP).
I když… teď mi došlo, že tyhle údaje by snad měly být ne pro PCB Founders Edition karet, ale pro PCB určené AIB výrobcům pro jejich karty. Ale zase by mohlo být předimenzované pro OC karty a těchhle 350 W by třeba už mohlo být zamýšlené TDP pro OC modely.
A jeste, husty by bylo, kdyby to byl dual chip. Koprocesor zajistuje komunikaci. Proto takovy design chladice. Vime uz, ze to ma oboustranne pcb.
To by bylo prekvapko 🙂
No ale nebude.
Nová Radeonka 400W TDP ? Na AdoreTV nejakú dobu viseli parametre :
514 mm2
80CU
2,76 GHz (Peak)
28 Tflops (Peak)
512 bitová zbernica
16 GB @ 20 Gbps
400 W TDP
Ale PRD :))
..v tom jejich podcastu prave rikaji, ze je to fake, ty Colombo 🙂
tomboDDino, vieš co to je rečnícka otázka ? Všetky info sú predbežne rumors, truhlíku…
Vladar, nerikej mi ze jsi tak blbej, ze nedokazes rozlisit mezi tim co je leak a co je „vystavena“ ukazka Fake, kdyz se o tom v tech komentarich bavi.
Nebo se nauc anglicky, aby jsi rozumel co k tomu rikaji a nedavej tady tebou vymyslene hlouposti.
tomboDDino, so spotrebou 400W u nVidie si začal predsa ty, truhlíku…
Vladar najdi si jineho „komunikativniho“ idiota, ktery bude s tebou ztracet cas a bude ti vysvetlovat jako nemluvneti o cem ty veci jsou. Hlavne tady nepis tebou vymyslene nesmysly.
tomboDDino, toho „komunikativniho“ idiota som už našiel, mrkni na svoje príspevky, jak ti to jede….
U nVidie napíšeš 400W naprosto v klídku, ale 400W u Radeonky nepripadá v úvahu všakže, typický červený pohled….
Vladar, nerikej mi ze jsi tak blbej, ze nedokazes rozlisit mezi tim co je leak a co je „vystavena“ ukazka Fake, kdyz se o tom v tech komentarich bavi.
Nebo se nauc anglicky, aby jsi rozumel co k tomu rikaji a nedavej tady tebou vymyslene hlouposti.
tomboDDino, fake je napríklad tvoje “ odborné “ vyčíslenie spotreby herného PC , na technických weboch šíriš také hovadiny, až si na smiech vlastným červeným bojovníkom….
Vladar proc lzes?
V podcastu, kde se bavi o fake informaci, udelas „unik“ a zacnes to tu prezentovat. Po slusnem upozorneni se zacnes vymlouvat, misto aby jsi rekl „ups“, jsem se splet.
Na to pak zacnes bezostysne lhat o necem co neni pravda a v te diskusi mi dali za pravdu.
Jsi uplny idiot a nebo jenom uplneho idiota ze sebe delas?
tomboDDino, tak schválne odborníku, popíš nám, jak si sa dostal na spotrebu 1kW pri hernom PC s 10900K + nVidia, bulharskú konštantu vynechaj….
Koukám Vladař opět lže.. Tombo píše o 1kW zdroji, Vladař to překroutí na spotřebu:
tombomino 15.6.2020 at 13:06
Tak pokudna tom postavis bez kompromisu top herne/vykonou masinu 3090+10900, tak jsi s nejakou rezervou na 1KW zdroji
c.k. polni marsalek 15.6.2020 at 18:01
tombo, kde ty chodíš na bludy o 1000W spotrebe 10900 +3090
Nejlepší je toho tupouna ignorovat, ten ulhanej chudáček tu akorát brečí o pozornost a prakticky všichni ho už ignorují. 😀
Aha ho, Ažnoha prifrčal tomboDDinovi urýchlene na pomoc, tak vysvetlite ten 1kW odborníci….
Slávna červená dvojka na place, ale preslávili ste sa ako trojka, sakra kde ste nechali tretiu červenú opičku ???
Ja jej bezne ignoruju, ale kdyz jsem videl ten nesmysl, ktery vydaval za „leak“ k big Navi a pritom to byla diskuse k fake informacim, tak mi to nedalo. K tomu zbytku co tu Vladar o mne vylhal ohledne te diskuse..to si kazdy muze najit a precist, kdyz bude chtit.
tomboDDino + ažnoha, ale vám to svedčí….
Takže, ten 1kW nevieš vysvetlit, hlavne že si kopol do Intelu a nVidie….hrdino…
Bohužel už je s ním nuda, jak někdo začne takhle patologicky lhát, tak to je znamení, že argumentačně naprosto selhal. S takovým profláknutým debílkem pak už nemá smysl ztrácet čas.
Ty jsi Vladar stale jeste nepochopil, ze ja s tebou o nicem nediskutuji (na to jsou potreba dva), maximalne okomentuju lez nebo nesmysl, ktery tu napises. Tobe vysvetlovat nic nehodlam, nevim proc bych mel ztracet cas vysvetlovanim veci nekomu, kdo jednak nic nechape a jeste to pak spokojene prekrouti a jeho jediny smyl je psat vysmevacne infantilni komentare… Kdo chce, vysvetleni ma samozrejme v te diskusi, o ktere lzes, jak kdyz tiskne. Podobne jako lzes o tom, ze nejaka spotreba je 1KW, jak spravne napsal Aznoh.
tomboDDino, sprostosti si nechaj na ten červený web, o kilowate si napísal aj tu, tak to vysvetli tu….
Krútiš sa jak had, len aby si tie svoje perly nemusel opakovat…
Si zbabelec,,,,
S dovolení bych se zde zastal tombombina.
Jeho komentář:
„Tak pokudna tom postavis bez kompromisu top herne/vykonou masinu 3090+10900, tak jsi s nejakou rezervou na 1KW zdroji 😉
Nicmene ja bych si tipnul, ze big navi na tom nebude o moc lip…“
Takže když to vezmeme v extrémech, kdy 10900 dokáže odebrat po přetaktování až 350W, k tomu 3090, kde se ukazuje taky nějakých 350W. To je dohromady v maximech 700. K tomu ramky, disky ventilátory atd, dejme tomu 100W když to přeženu. Suma sumárum 800W v extrému.
Toto značí, že se s tou rezervou opravdu bavíme o 1kW zdroji. Nevidím na tom nic špatného. Samozřejmě se vychází z maximální možné spotřeby, kterou ty komponenty jsou schopny sežrat. Rezerva 200W není nic neobvyklého.
Takže za mě ano, 1kW zdroj na tuto sestavu je adekvátní.
casperdeluxe 16.6.2020 at 13:56
Nezapominejte ale, ze hrani her neni stress test, tzn. ta realna spotreba pri hrani by tak vysoka nebyla. Nicmene pro takto narocneho uzivatele bych zdroj radeji predimenzoval, nez riskoval, ze mi nejaky peak spali pojistku, nebo primo zdroj. Takze ten 1kW mi prijde rozumna volba.
Alich:
Tak já vždy počítám tu nejvyšší možnou hodnotu. Jistě že to nebude furt na 100%. Ale jsou výkonnové špičky. A hlavně nikdy člověk neví, co na tom PC bude dělat.
Presne tak kluci 🙂
Ryzen 2700x stock, 32GB RAM, MSI Gaming X 1080Ti, asi 2 disky a 3 SSD – spotreba pri hrani ~460W. Ti ma uvadenych nejakych 333W. Takze kdybych do toho nahazel jeste nejake hovadiny pro streamovani a vymenil CPU za vyse zmineny intel, ktery bych pretaktoval, tak muzu byt klidne o 100W vyse. => 650W zdroje uz bych se tu bal. 1kW zdroj je tedy bezpecna rezerva pro pripadne rozsirovani a pokryti peaku. Nejaky kvalitni 850W zdroj by byl v pohode take, ale nenabizel by uz nejake velke rozsirovani, proto bych se radeji priklanel k tomu 1kW (treba ja tam mam grafiky 2).
@Vladar, dava ten 1kW zdroj v tomto kontextu smysl?
Aby nvidie obhájila takovou spotřebu, musel by být nárůst výkonu minimálně dvojnásobný, takže očekávám kartu 8K, která rozjede všechno i s RTX efekty min. na 60FPS a v 4K min. 144FPS.
Zas to tak neprožívej. Každý produkt je trochu jiný, nvidia se možná bude snažit natlačit svým věrným zase jinou zbytečnou technologii, nebo prostě jejich 7nm výroba není (ještě) optimální.
Toto čítam pri každej technológií od NV. Čím to je, že NVIDIA tlačí iba samé „zbytočné“ technológie? 🙂
Pokud NV fixne vykon RT a zvedne rasterizacni vykon 40-50+, jako ze indicije zatim rikaji ze ano, tak ma v principu pro tuhle generaci hotovo. Budou to dobre karty, jen ta spotreba je zatim dost zarazejici, coz by mohlo evokovat snahu to hnat na maximum z duvodu konkurence RDNA2. Uvidime az to vydaji.
Lebo su babraci! 😀
A ted vazne 😉 Ja jsem pro, ze NV tlaci nove technologie, za me v poradku. Ja osobne jsem za danou cenu RTX nevidel pridanou hodnotu a tu nevidim ani ted (jak u NV, tak AMD, s rozdilem konzoli, kde prave budou nove custom chipy), protoze jsem presel na hrani na konzolich a na praci ted GPU nepotrebuji. Mne osobne by ale od nakupu nove NV odrazoval jejich povestny Error 43. Vy asi vite o cem mluvim, Marku 😉
Řeknu ti to takto: já považuju za zbytečnou každou technologii, která je zcela závislá na libovůli svého majitele. Můžeš to brát jak chceš, ale majitelé RTX karet si koupili něco, co jim chvilkově a za poměrně velké peníze nabídlo nějaký „bonus“ o značně diskutabilní kvalitě a kvantitě. Nikde nemají zaručeno, že nedopadnou stejně jako majitelé vykuchaných G-sync monitorů, kteří si za horentní sumu koupili vykastrovaný „herní“ monitor – aby se v další generaci výrobce musel sklonit před otevřeným standardem konkurence.
Takže sorry, já v tom vidím klasický marketing, stejně jako výrobci TV nacpali blbcům 3D telky (po kterých dnes už nikdo ani nevzdechne, protože si každý hejl ověřil, že to je k ničemu, protože je to jednak technologicky nedospělé, druhak pro to není dostatek obsahu – podobnost s RTX je „čistě náhodná“ – dnes se už v rámci křečovitého boje o zájem hráčů bere za „RT“ i věc jako trochu lepší stíny a globální nasvětlení oproti záměrně mírně zkriplenému a nedotaženému rasterizačnímu standardu)
P.S.: nikomu jeho volbu neberu, jen zde prezentuju vlastní názor (a myslím, že po těch 30 letech pohybu v IT jsem toho viděl už dost a mám na něj docela i právo)
tynyt:
Ty pořád nechápeš, že RT není nic, co by si udělala Nvidie na svém písečku s tím, že kdo chce RT, musí si koupit Nvidia kartu. To přece není vůbec pravda. Nevím, proč se pořád tyto bludy opakují. Holt nějakej idiot to některým nacpal do hlav a tam to bohužel zůstalo…
RT je obecný algoritmus, ale RTX je proprietární technologie nvidie – jak na úrovni HW, tak na úrovni SW.
Pokud bude RTX vyuzivat „RT rozhrani“ DX12 nebo Vulkanu, tak je to v pohode.
Nj. Ta technologie je natolik zbytečná, že jí s novou generací bude podporovat i AMD a to dokonce i v konzolích…
silně pochybuju, že AMD bude podporovat RTX. AMD, pokud vím, tvrdilo cosi o podpoře Raytracingu (cokoliv to má znamenat), a to i pro konzole. A opět silně pochybuju, že to bude cokoli jiného, než podobně trapný pokus o „virtuální“ RT jako v podání nvidie – zcela jistě to bude navzájem nekompatibilní (anebo to bude bezzubá implementace na základě DX/Vulcan).
Znova opakuju, že tyhle větičky a slůvka o „podpoře“ jsou jen bohapustý marketing.
No tak teď to teda nechápu. Nvidia RTX je jen název jejich technologie pro výpočet raytracingu, který je standardem v DXR. To, jaký způsob k tomu výpočtu používá Nvidia nebo AMD je celkem jedno. DXR, potažmo raytracing je standard. Není to žádná uzavřená věc Nvidie.
„zcela jistě to bude navzájem nekompatibilní“ Zase. Nevím co by na tom mělo být kompatibilní nebo nekompatibilní. To je jako říct, že hra s DX12 pojede jen na Nvidii, protože AMD ještě DX12 kartu nemá. A až ji vydá, tak nevím, jestli to DX12 v té hře bude kompatibilní s AMD kartama
Tak jinak: myslíš, že současné hry s aktivovaným RTX budou fungovat na hypotetických AMD kartách? A opačně, pokud AMD uvolní nějaký svůj RT standard, bude fungovat na nvidiích?
Je to jednoduchá a praktická otázka. A historie poměrně jednoznačně říká, jaká bude odpověď.
Přád nevím, o jakém standardu mluvíš. RT běží pod DRX, což je standard. Jak si ho ta která firma počítá, je jen jejich věc. Vždyť si můžeš na GTX kartách zapnout RT ve hrách taky. A to nemají žádnou HW akceleraci. Takže pokud to AMD povolí v ovladačích, tak si RT můžeš zapnout i na AMD kartách. A až výjdou AMD grafiky s HW akcelerací RT, tak se vsadím, že si na tom klidně např. Metro zahraješ se zaplým RT. Nevidím důvod, proč ne.
Tak oni ani nemohou rici “bude zvladat”, protoze to by museli rici i za jakych pidminek. RT je tak siroky pojem, ze udelat plne raytracovanou hru v kvalite obrazu dnesni rasterizace neni s vykonem nynejsiho PC mozny. Jeste bych poznamenal, ze RT neni jen o obrazu. Proto uvadeji “podpora RT”. Ale nekomu to takto staci a vlastne tim podporuje dalsi vyvoj, ovsem nejen vyvoj 😉
Ano, jedna věc je, co se dnes reálně za tzv. „RT“ vydává – většinou je to je jen část týkající se stínů nebo odlesků.
Druhá věc je, zda to má ve světle dnešního vývoje odpadkových recyklátů „AAA“ her nějaký podstatný význam, zda se forma nestala pánem obsahu.