Plné specifikace Ampere: shadery, takty, paměti. TDP je až 350 W, ale čipy jsou 7nm

92

Web VideoCardz provalil plné specifikace GeForce RTX 3090 a RTX 3080, částečně i RTX 3070. Karty mají velmi vysokou spotřebu, ale výrobní proces je prý 7nm, není to tedy kvůli 8nm výrobě, jak se čekalo.

Průsaky před vydáním grafik Ampere jsou zřejmě už nezadržitelné, protože v tuto chvíli se už i partnerští výrobci připravují na odhalení svých verzí karet. Ačkoliv se stále neprovalily kompletní specifikace, web VideoCardz teď přinesl důležitou část detailů, doplňující to, co jsme se ke kartám dozvěděli ve středu.

VideoCardz, jehož informace by měly být založené na tom, jaké karty chystají partnerští výrobci (a tím relativně ověřené), nyní píše, že během příštího měsíce, tedy v první vlně, Nvidia nakonec vydá hned tři modely. K prvním dvěma jsou specifikace takřka celé.

GeForce RTX 3090: 350 W…

První bude nejvýkonnější varianta GeForce RTX 3090 s 24GB pamětí. Uvnitř má být čip GA102-300, tedy to, co nedávno uniklo na fotce. A teď to nové: tato karta bude mít 5248 shaderů/cuda jader/stream procesorů (říká se jim všelijak, ale hovořit o „jádrech“ není technicky správně). Boost by snad měl být 1695 MHz.

Paměť (jak již bylo známo dříve) dostala kapacitu 24GB a používá novou technologii GDDR6X. Sběrnice je 384bitová a nová informace je takt pamětí: 19,5 GHz efektivně. To kartě zajistí propustnost 936 GB/s.

Grafické ztvárnění balení pro GeForce RTX 3090
Grafické ztvárnění balení pro GeForce RTX 3090 (Zdroj: VideoCardz)

VideoCardz také potvrdil dosud divokou zvěst o vysoké spotřebě: TDP, či přesněji řečeno spotřeba celé karty, je 350 W. Tyto hodnoty jsou pro nepřetaktované karty s referenčními frekvencemi.

Podle VideoCardz budou karty od partnerských firem (tj. ty co běžněkupujete) mít napájení dvěma osmipinovými konektory, tedy úplně standardně. Nový dvanáctipinový konektor (snad jen jeden?) bude samozřejmě u karet Founders Edition od Nvidie, i když asi není vyloučeno, že ho vezme na milost i nějaký externí výrobce.

Galerie: Nový 12pinový napájecí konektor pro grafiky Nvidia GeForce RTX 3000/Ampere

GeForce RTX 3080: šance na 20GB model prý pořád je

Druhým modelem bude karta GeForce RTX 3080. Ta má, jak již bylo dříve vypuštěno, 10GB paměti GDDR6X na 320bitové sběrnici. Nyní VideoCardz doplňuje takt, ten je 19,0 GHz efektivně, což dodá propustnost 760 GB/s.

Podstatná informace ještě je, že je prý nakonec pořád ve hře 20GB verze (která by řešila výtka na relativně malou paměť, asi jde i optimálnější kapacitu než rovnou 24 GB). Tu snad prý (na vlastní pěst?) vytvoří výrobci karet jako nereferenční model. Ale údajně pro něj ještě není známé datum a není úplně jisté, kdy by tedy přišel – minimálně nebude dostupný hned při vydání.

Grafické ztvárnění balení pro GeForce RTX 3080
Grafické ztvárnění balení pro GeForce RTX 3080 (Zdroj: VideoCardz)

A teď specifikace GPU: tento Ampere má mít stejný čip, ale ve variantě GA102-200. Už je ale poměrně dost oříznutý na „jen“ 4352 shaderů. Takt boostu by prý asi mohl být 1710 MHz.

Přes oříznutí GPU a méně než poloviční paměti nebude spotřeba této karty o moc nižší a také přeleze symbolickou třístovku. Celkové TDP karty je 320 W, opět prý pro referenční parametry, takže toto bude standardní hodnota přes OC. Karty partnerských výrobců budou mít napájení dvěma osmipiny, Founders Edition od Nvidie asi opět svůj 12pin.

GeForce RTX 3070: 8 GB, 220 W

Novinka je, že nyní je už známo i že do konce září reálně vyjde rovněž GeForce RTX 3070. Tato karta má odlišné GPU GA104 ve variantě GA104-300 (a také odlišné PCB PG142, kdežto předchozí dvě PG132). K této kartě není ještě znám počet shaderů ani takt, ale víme, že TDP karty bude 220 W.

Paměti zde zůstanou při starém. VideoCardz uvádí, že kapacita bude 8 GB, šířka sběrnice 256 bitů. A hlavně má jít o GDDR6, nikoliv GDDR6X. Pokud by Nvidia použila 16,0GHz frekvenci (to možná zatím není 100% jisté, ale mohlo by to nastat), tak by propustnost dělala 512 GB/s.

Specifikace GeForce RTX 3090 a GeForce RTX 3080 Zdroj VideoCardz
Specifikace GeForce RTX 3090 a GeForce RTX 3080 (Zdroj: VideoCardz)

Zatím nejvyšší spotřeba single-GPU karty?

Spotřeby 320 a 350 W jsou na jednočipové karty hodně vysoká, vyšší než například u značně kritizovaného Radeonu RX Vega 64, jemuž „stačilo“ 295 W (dokonce jde Ampere i výš než speciální vodní edice Vegy, ta těsně prohrává s 345 W).

Nakonec snad 7nm technologie

Trošku to už začínalo vypadat, že vysoká spotřeba by mohla být proto, že Nvidia použila horší výrobní proces 10nm třídy (8nm proces Samsungu). Ovšem pozor, podle VideoCardz dokumenty, které získal, hovoří explicitně o tom, že GPU je 7nm. Nebo minimálně GA102 je, u GA104 to asi zatím nikde není zmíněno. Zda jde o 7nm proces Samsungu (ten by byl s EUV) nebo TSMC (ten může být s EUV i bez), zatím potvrzené není.

GPU Nvidia GA102 300 Chiphell
GPU Nvidia GA102-300, údajně 7nm křemík (Zdroj: Chiphell)

Toto by znamenalo, že energetická efektivita by pořád mohla být velmi vysoká. Jinými slovy, vysoká spotřeba by nemusela být proto, že GPU to lépe neumí, ale proto, že se do karet Nvidia rozhodla vecpat více výkonu. Výpočetní výkon je v GPU ve finále vždy omezován watty, takže když toto škrtidlo povolíte…

Vysoká spotřeba (320 W, 350 W) GPU Ampere/GeForce RTX 3000:

PCI Express 4.0, HDMI 2.1

Z dalších věcí je potvrzeno, že GPU Ampere budou už podporovat novou verzi HDMI – HDMI 2.1, které nese mnohá zlepšení a podporuje vyšší rozlišení. DisplayPort zůstane na verzi 1.4a. Karty také mají už i podporu PCI Expressu 4.0 (když už ji dostalo i zvláštní mobilní GPU GeForce MX450), takže využijí tento potenciál na aktuálních platformách (Ryzenech 3000 „Matisse“ od AMD, u Intelu si počkáte do příštího roku na Rocket Lake).

O změnách samotné výpočetní a grafické části zatím nic nevíme. Nvida v materiálech uvádí „Ray Tracingová jádra druhé generace“ a „Tensor jádra třetí generace“ (ta už známe z vydání serverového Ampere A100), ale bližší podrobnosti k nim ještě nejsou.

Galerie: Nvidia Ampere je tu: obří výpočetní GA100, 8192 shaderů. Architektura jde i do GeForce (Fotogalerie)

Zdroj: VideoCardz

Plné specifikace Ampere: shadery, takty, paměti. TDP je až 350 W, ale čipy jsou 7nm
Ohodnoťte tento článek!
4.7 (94%) 10 hlas/ů

92 KOMENTÁŘE

  1. Tak jestli nakonec nebude mít AMD výhodu ve výrobním procesu, tak to už s nima vypadá hodně špatně. Z toho trefí Stachuja šlak, možná i přestane ráčkovat.

    Nicméně nezoufejte, AMD fanboys, příště už to určitě vyjde!!!

        • Chalani videli ste ceny 3 rady? kto si myslel že si kupi RTX3080 za 800€? ten bude kapanek prekvapkany s toho, lebo ta bude stať o 200€ viac ako 2080Ti
          A kto sa tešil na 3090 za 62K Kč? nik?, ale kto ma 62K určite najde aj 90K Kč na Titan A 😀
          Ja sa len smejem lebo do mojho rozpočtu 18K sa nevmesti ani jedna s tychto krasok a to je cena za ktoru sa predavala dva roky do zadu TOP karta GTX 1080Ti 😀

            • Nevím jaké má ceny, ale někde jsem zahlédl spekulaci o 2000 USD za 3090, což mi přijde naprosto ok cena, je to karta kalibru RTX Titanu a ten stojí 2500 dolarů, znamenalo by to mezigenerační pokles ceny.

            • Všechny weby píšou o zdražení a mistr komplik se raduje, že NV vlastně zlevnila. 😀 Blbec…. 😀

            • A to sa nebavíme ešte o tom, že každou generáciou by sa mal pomer cena/výkon zlepšovať, bežné bolo zlepšenie o 25-50%, pred rokom 2010 to šlo niekedy aj o 70%.

            • Já jsem upgradoval před rokem na 2070 Superko z 1080. 1080 mě stála 21400 ve founders edici první den prodeje 27. 5. 2016.

              2070 Super, MSI Gaming X Trio, také první den prodeje s dvěma gameskama jako bonusem mě stála 16 tisíc. O 30% výkonu navíc v rasterizaci ale hlavně asi 300% výkonu v RT a to byl také hlavní důvod k její koupi, takže posun ceny výborný, posun výkonu v rasterziaci očekávaný a v RT fenomenální.

              Na cenovou politiku NV si rozhodně nestěžuju, měl jsem výrazně víc výkonu za výrazně méně peněz.

    • Úspěch AMD v HighEndu by si měli přát zejména zájemci o NVIDIA GK. Bez odpovídající konkurence si kromě vyšší spotřeby a vysokého výkonu užiji také vysoký poměr cena/výkon(cenu).

      • PCT :“ Od dalšího výrobce grafik mám info, že AMD proti RTX 3090 nechystá nic, její vlajková loď prý bude mířit pouze na RTX 3080! A pokud se ptáte na dostupnost, nebude to prý dřív než listopad nebo prosinec. „

      • A proč by AMD prodávalo konkurenční produkt výrazně levněji. Radeon VII není levnější než 2080S. VII má sice paměť, 2080S má RT, Tensor, NVENC….

        RX5700XT je jediná co může konkurovat ale 2070S se stejně za výrazně vyšší cenu prodává lépe, zbytek nabídky AMD je dost slabý, jak v low endu, tam mají sice dost karet ale prodávají se jen polarisy na kterých moc netrhnou a nad 5700XT je prázdno.

        Pokud se výkon posune nahoru a 3070 bude na úrovni 2080Ti, tak má AMD docela problém

        • R VII má predovšetkým obrovsky výkon v FP64, cca 8x ako RTX 2080Ti, takže je to skôr náhrada výpočtovej karty s možnosťou použitia ako bežnú GK. RX 5700XT má nevýhodu v trochu horšom pomere výkon/spotreba čo sa snaží dorovnať cenou. Hrubý výkon má však vyšší ako konkurencia RTX 2070, a mierne vyšší ako RTX2070S, takže pri nových tituloch by nemusela tak „strácať“ výkon. S ovládačmi som osobne problém nikdy nemal ani s GK od nVidie a ani od kedy mám R290X, akurát som zaznamenal pri AMD dosť veľký posun v možnostiach pridruženého softu v ovládačoch, väčšina nových možností je dostupná aj na R290X. Ak by pridali ešte možnosť grafovo ovládať rýchlosť ventilátora + hysteréziu tak by som už afterburner vôbec nepotreboval.

      • Kvůli sběrnici můžou dát buď 10 nebo 20. Problém je, že 10 je málo a 20 zbytečně moc.

        Otázka je, zda si nakonec budeme moct dovolit i tu 3080:-D Obr před chvílí dal nástřel cen a nedívá se na to hezky, ačkoliv to tak asi fakt bude no.

        • Teoreticky by mohl mít 12 GB, kdyby použili plnou sběrnici (nevím, jestli vypínání kanálů zachrání při harvestingu nějaké čipy, nebo je to jenom segmentace).

          Tak mě napadá, kdyby použili plnou 384bitovou sběrnici a 12 GB GDDR6 na 16,0 GHz, tak má RTX 3080 propustnost 768 GB/s (tj. stejnou).
          Skoro mi přijde, že by snad 12 GB GDDR6 nemuselo být dražší než 10 GB GDDR6X… ale to by se muselo použít zase jiný PCB a je možný, že ten řaič umí jen GDDR6X a ne GDDR6 (rozdíl pro PHY je přece jenom asi dost velkej).

          • RTX Titan je ještě o 10000Kč dražší (pokud jej 3090 nahrazuje, případně bude nový Titan s již jen s pár CU navíc) pak ta cena asi odpovídá. Snob s penězi a ten co větší framebuffer potřebuje si jí i za tuto rád cenu koupí. Pro ty chudší s vyššími nároky na framebuffer tu snad bude RTX 3080/20GB. Do 10GB bych nešel, nebudu po třech+ letech nahrazovat kartu (1080Ti) za jinou s ještě menším FB.

            Pokud se RDNA2 v GPGPU výkonu ještě více vzdálí výkonu GCN, nebude prakticky jiné alternativy (a to ani po vydání Navi 2x).

            • Ja na mieste AMD by som sa vykaslal na GPU aj tak ich nik nekupuje, lebo Nvidia je aj tak najlepšia 😀

          • Co je na tom za lol RTX Titan je za cca 75, to je pěkná mezigenerační sleva jelikož 3090 dle těch specifikací je kalibr toho titana, jen se to teď nebude jmenovat titan a dají to na trh rovnou. To potěší ty co jdou po max výkonu nemusí si kupovat mezistupeň a zároveň se ta karta dostane více do povědomí protože RTX Titana dost lidí ani nezná.

            • RXT Titan stojí 2500 dolarů, pokud karta která ho nahradí bude stát 2000 dolarů, tak je to příjemná sleva 20%

              Však už RTX Titan je za rozumnou cenu, Titan V stál 3000 dolarů.

              Ceny jdou dolů, a ne ani tak v těch samotných řadách, ale poměr cena/výkon.

              GTX1080 koupená první den prodeje za 21400 vs RTX2070S v prémiové edici za 16000, 30% ceny dolů, 30% výkonu nahoru. Kde na NV zdražuje?

            • No to jsou řekněme dost selektivní kritéria.
              Že po třech letech mainstreamová karta má víc výkonu než o stupeň vyšší kategorie před třemi lety, by mělo být dané. Taky ale to 2070ko zdražilo o desítky procent proti GTX 970 a 1070.

              „Však už RTX Titan je za rozumnou cenu, Titan V stál 3000 dolarů.“
              No nevím, tady se asi naše perspektivy fatálně rozcházejí 🙂 Já teda vidím to s tím Titanem spíš dost poloprázdně a ne „poloplně“ 😀

  2. Tak nereferencka 1080Ti 330W a to si v zatezi i vezme. Nutno rici, ze 3090 ma mit o 13GB pameti vice, ktera si take vezme. Spis me ale zajima realny vykon bez RTX a skutecne ceny pro porovnani. Samozre treba pripocitat i nove funkce a potencialni prinos.

  3. V clanku sa spomina PCIE 4 pre nove karty. A ked mam doma verziu 3 ako zistim pre ktore karty bude starsia generacia uz brzda ? Planujem uprgrade GPU ale zas nie vymenu celeho desktopu. Raz som videl na jednom tech.servery porovnanie pcie 2,3,4 u AMD 5700XT, pri 3 a 4 rozdiel 0 a 2 generacie do par %. Je preto nejaky vypocet alebo pokial kupim GPU s dostatocne velkou VRAM o PCIE sa nemusim zaujimat ?

    • Rozdily jsou meritelne u nekterych her uz i dneska. Na druhou stranu jsou porad male. Je na to celkem pekny test na techspotu. Vetsi VRAM vam nezaruci, ze se nestane PCIe uzkym hrdlem, protoze data mezi RAM a VRAM GK tecou stejne po PCIe. Nicmene, jak pise Alich, zalezi na jakem zeleze to chcete provozovat. Pokud chcete mit jistotu, ze neprichazite „o nic“, pak Vam nezbyva nez AMD platforma a pockat nejlepe na Zen3. Jinak je to v praktickem slova smyslu nejspis celkem jedno, pokud nehonte kazde jednotlive procento vykonu.
      https://www.techspot.com/review/2084-amd-or-intel-for-gaming-benchmarking/

      • 1440P/144HZ, FPS/RTS
        Zelezo : CPU 9700KF, MB : ASUS APEX XI, RAM : 16GB G.SKILL 3600 MHz CL16, SSD : Samsung 970 PRO 512 GB, GPU : ASUS ROG RTX2070S O8G
        Monitor : ASUS ROG PG279Q
        GPU pre 1440P/144HZ je brzda ale rozpocet ist vyssie vtedy uz nedovolil. No teraz je situacia ina a chcel by som po dobu 4 rokov kym budem opät menit komplet zostavu drzat sa u AAA hier na ULTRA s RTX na 1440P a mat stabilne 144FPS. No nechcem platit za GPU ktore bude brzdit PCIE 3.

        • Tak v tomto pripade bych sel asi do PCIE 4, ale zalezi i na celkovem budgetu, ktery mate a jak rychle na to spechate. Ja osobne bych pockal na vydani novych RTX a Radeonu (Q4), stejne tak na nova CPU a desky.
          Pokud by pro vas byla alternativa i cesta konzole, tak tam by vam vykon zminene 4 roky urcite vydrzel (tuto alternativu uvadim kvuli cene a „vydrzi HW“).

  4. „Je to znak, že se něco úplně nepovedlo, dřív to Nvidia nepotřebovala.“
    Ten problém je RT, Don Juan si nas…. do vlastního hnízda, RT mělo ještě 5let čas.
    Proto 350W a přepálená cena.

  5. Nevypada to dobre, cena RTX 3080 je urcite nad tim, co si mohu dovolit, i kdybych hodne moc chtel. A mala neni ani spotreba grafiky, coz se mi teda nelibi uz vubec.
    V podstate je skrz cenu jasne, ze pockam do listopadu, protoze proste pozadovanou sumu driv dohromady nedam. No a kdyz uz stejne musim cekat, tak je jasne, ze i ja si nakonec pockam, jestli ty RDNA2 grafiky nebudou mit nahodou tu spotrebu preci jenom nizsi.

    Jiste stale prichazi moznost jit do nizsi rady s RTX 3070, na kterou bych financne uz dosahnout mel. Bude mit uz rozumne TDP, jenze tady mam zase trochu problem s tim, ze je tam porad jen 8GB VRAM. Takze ohledne pameti si oproti soucasne grafice GTX 1080 nepolepsim vubec a uvdime, jestli tam bude nejaky opravdu hooodne vyrazny nasup vykonu. RTX 2080 se mi zdalo, ze ma na to, abych upgradoval, ten narust malo vyznamny, tezko rict, jestli je mozne, aby RTX 3070 byla jeste vykonejsi. :-/

    • A co s tim mame delat my tady? 😉
      Musite vedet co chcete nasledne na to si vybrat produkt na trhu. Pokud neni, tak vybrat podobny, nebo pockat. Dalsi alternativa jsou konzole, ale to jste psal, ze take ne. Tak mozna bazarove RTX 20×0?
      Pak je jeste moznost jit na brigadu a na to 3090 / 3080 si treba vydelat? 😉

      • Ja moc dobre vim, co chci. Jenze ne za tu cenu. Jak jsem jiz psal jindy: Rada 2000 pro me nemela vyznam, nebot navyseni vykonu nebylo oproti GTX 1080 tak vyrazne. Snad u RTX 2080 Super, ale veril jsem, ze v nasledujici rade se preci jen posune vykon jeste o neco vys pri zachovani ceny.
        Bohuzel to moc nevypada a vykon nekde okolo RTX 2080 S se dost mozna posune do vyssich cenovych hladin, pridanou hodnotou asi bude jen vykon RT, coz neni vyslovene neco, za co bych musel utracet.

        Na brigadu nepujdu, mam trvalou praci a samozrejme nakonec ty penize i na tu spekulovanou cenu vydelam, o tom zadna. Akorat si budu muset pockat, jak jiz jsem naznacil v predchozim prispevku. A velmi pravdepodobne budou i u AMD rychlejsi a tudiz kdyz uz budu cekat, tak nahle zacinam brat do uvahy i moznost, ze se poohlidnu i podle toho, co predvedou RDNA2 grafiky.

    • Je brutalni RT vykon opravdu tak podstatny, ze bys nevahal nad grafikou se spotrebou pres 300W?

      Muj nazor je, ze neni. Mel jsem se 300W problem u AMD Vega karet a jednoznacne jsem proto preferoval NVidii. Klidne se porad muze stat, ze dojde na prekvapeni sezony a RDNA2 budu nejen ja preferovat, pokud predvedou vykon s rozumejsi spotrebou … elektriky i penez :-).

      • Tak me stve, ze CPU a GPU v hernim PC maji dnes v zatezi vetsi spotrebu nez 100W kazde, ale lepe to holt zatim neumime. Na druhe strane kdyz jsem videl, jak pekne funguje power management, tak jsem se az nestacil divit.

        • Ve skutecnosti jsem leta hral na Core i7-950 (130W) a GF570 (220W). Dnes hraji na 3800X (105W) a GTX1080 (180W).
          Pominme ted, ze predevsim v procesorech neni TDP co byvalo, ale kouknes-li se na tu mou historickou sestavu, tak i s realnym TDP porad nepujdu vys nez v minulosti a do toho mi ted chce NVidie rict, ze mam jit o 100W nahoru jen kvuli grafice?

          Nechci ted NVidii zatracovat, po uterku na to bude casu dost, ale ted stale doufam, ze to je nejaky sprym a ze to NVidia jiste nemysli vazne. 🙂

          • Tak reálná spotřeba procesorů ve hrách bývá tak 50-80W a v podstatě je jedno zda je to intel nebo amd, CPUčka neběží zdaleka na hraně.

            A nahoru samozřejmě jít nemusíš, já třeba s GTX1080 míval herní spotřebu běžně na těch 180W, spíše 180-200W protože jsem povolil power limit. Teď mám 2070S, s 215W TDP, limit jsem nezvyšoval a často mi ta grafika jede spotřebou 180-215W ale s 30% vyšším rasterizačním výkonem a násobným RT výkonem.

            Když ale použiju FPS lock, což dělám tak jsem na 70-80% TDP, tedy u 170W max, což je méně než bylo na té 1080

            • To je fakt logika.
              Leta ikdyz odhledneme od cen, tak se nam v ramci rad – lowend, mainstream, highend, drzi spotreba elektriny v nejakych mezich plus minus autobus. Obcas se stane, ze jde spotreba i dolu a vyrobce nejen navysi vykon ale snizi i spotrebu.

              A vyjimecne se stane, ze se spotreba dramaticky az o tretinu zvysi a vyrobce je za to internetovym davem zpranyrovan a zesmesnen, coz se i stalo AMD v minule generaci Vega. Opravdu se chce NVidia pustit na stejny led?

              Jestli jim to ty zeres, tak ja tedy rozhodne ne a zadne marketingove nesmysly, jak si muzu locknout FPS na me nezkousej, novou grafiku chci proto, ze chci zvysit vykon a ne to locknout.
              Mimochodem takovy MS Flight Simulator sezere 100% vykonu GK i procaku. U primotopu od Intelu + nove NVidie nejspis vyhodis pojistky a dohrals. 🙂

            • To by si musel prekročiť príkon 3600W na zásuvke, takže nV AMD a intel majú ešte riadnu rezervu 😀

            • Jasne. 🙂
              Jenom snad neni to na zasuvce, ale na cele vetvi a predstav si, ze mas pustenou mikrovlnku, pracku a to uz se i elektrika sekne, kdyz tam pridas jeste NV+Intel. 😀

      • Jasně, touhle tvou demagogickou perspektivou budou mít za chvíli karty 1kW a bude to asi podle tebe v pořádku… Naopak, očekávání je zachovat spotřebu (či ideálně ji snížit) při zvýšení výkonu. 350W+ karty jsou už jaksi docela limitní pro běžné herní PC. Provozoval jsem SLI a vím o čem mluvím, S takovou bude za chvíli nutnost mít klimatizaci v herním pokoji..

        Když už zvyšovat, tak jemně, např. 1080 tdp vyšší o 9%, ale 60-70% výkonu navíc.. Navýšení spotřeby o 50% u 3080 by byl fail, proto té leaknuté spotřebě 3080 zatím moc nevěřím..

        • já taky ne, přijde mi že tam z NV zamíchali dezinformace. Pokud je to fakt 7nm tak by to mít takovou spotřebu nemělo. Sám mám poměrně slabou 2070 OC ale v menší skříni – a to hodně dobře větrané, jenže v menší místnosti, takže i tak je ten výhřevný výkon dost znát. Nedovedu si představit dát tam něco co má 300W nebo dokonce víc, to by větráky foukaly už pak horký vzduch a i v zimě bych mohl vypnout topení. No a v létě sauna kde by přežívala jen tropická flóra…

          • Když má ten čip přes 600 mm čtverečních tak klidně může brát 350 W, ani to nebude tak velká energetická hustota (Ryzen 9 3950X má tak 120-125 W v 145 mm čtverečních*).
            Holt se rozhodli vymáčknout víc výkonu tím, že se napájení, chlazení a spotřeba nadimenzuje výš. Toto samé teď probíhá u GPU a CPU v serverech.

            *Edit: jo a u té geforce jsou v té spotřebě i VRM a paměti, GPU samotné bude brát hodně pod 300 W.

          • Nevidím problém v chlazení 300W, však jsou lidi co měli 3x250W grafiku, přetaktovaný HEDT v počítači a v klidu to chladili. Ano v zimě to pomůže s topením a v létě to člověk ve vedrech nepozná protože má stejně zapnutou klimatizaci

            • „komplik 30.8.2020 at 16:17
              Ano v zimě to pomůže s topením a v létě to člověk ve vedrech nepozná protože má stejně zapnutou klimatizaci“

              Takže je to vlastně v pořádku, podle těch tvých blábolů se to snad zdá být i lepší, aspoň nám nebude zima. 😀 A planeta nám jistě taky poděkuje. 😀

              #stopfanatismu

        • Však to se děje, příklad 1080Ti, 250W výkon 100% vs 2070S 100% výkonu při 80% spotřeby, dokonce nižší ceně.

          To že vznikají výkonnější karty, za více peněz a větší spotřebou neznamená že mizí levnější karty za stejné peníze a nižší spotřebou.

          • Tohle tvoje demagogické srovnávání je úplně na nic.. Můžeš rovnou napsat, že 2070S je desetkrát rychlejší než GTX480 při nižší spotřebě, ale na co mi ta informace je? Úplně k ničemu.. To, že vývoj čipů pádí dopředu a zároveň s tím pádí dopředu i HW náročnost her je normální stav, proto má smysl srovnávat karty ve stejné třídě. Když si koupím po dvou letech místo highendu 1080Ti jen mainstream 2070S, tak jsem prakticky downgradoval o třídu níž se všemi důsledky co k tomu patří. (nižší fps aktuálních her pro danou generaci)

  6. S temahle cenama je mi vlastne jedno, ze amd bude mit konkurenci jen proti 3080.
    Tohle uz mi prijde tezce mimo i na highend herni grafiky. Vzdyt to jsou skoro prachy, za ktery se da poridit novej slusnej 125 skutr. Asi uz jsou ty priority jinde. 😀

        • Tak je rozdíl mít na výplatu 50 a 100 tisíc, že. Pokud s 50 poplatíš mandatorní rodinné výdaje a něco málo ušetříš, tak se 100 tisíci máš o 50k na utratu k dobru a záleží jen jaké máš záliby a čemu dáváš preference, někdo si koupí fajn káru, někdo lepší vybavení domu, někdo to prochlastá, někdo prohraje v kasinu, někdo si koupí grafiku.

          Ano lidí, aspoň v ČR je s takovými přijmy sotva 3% ale ty karty taky nejsou masovka. Zase pokud děláš v ekonomicky silnějších zemích tak takové příjmy má daleko větší množství lidí.

          • No od tebe to sedí, půl roku jsi tu křičel jak budeš kupovat 2080Ti a pak jsi napsal, že rozpočet by moc krvácel a skončil jsi někde na mainstreamu s výmluvama, že takovej výkon vlastně ani nepotřebuješ, 😀

  7. Tak si predstavte tu drzost nVidie :
    “ Pokud jde o FE edice, ty lze získat jen od NVIDIA. Vzhledem k nepříliš dobré práci českého zastoupení NV a nezájmu o objektivní testy, nemám velkou šanci ty karty do ČR oficiálně dostat. Minimálně mě NVIDIA vůbec nekontaktovala. „