Uniklo PCB Radeonu RX 6800 XT: 256bitová sběrnice potvrzená, VRM pro vysoké TDP

107

Unikla fotka PCB zřejmě určeného pro nereferenční Radeon RX 6800 XT. Ukazuje 256bitové paměti GDDR6 a také 16fázové VRM, možná ukazující na TDP přes 300 W.

Tento týden utekly na internet už poměrně detailní specifikace nových Radeonů s architekturou RDNA 2 – modelů Radeon RX 6900 XT, Radeon RX 6800 XT a Radeon RX 6800. Ty budou oficiálně potvrzené až příští týden, takže ještě existují určité drobné pochybnosti a také neznáme spotřeby.

Ven na internetovou veřejnost se ale teď dostala fotka PCB s GPU Big Navi, která patrně dokládá asi nejkontroverznější část, totiž že karty mají jen 256bitovou paměťovou sběrnici.

Snímek se objevil na Twitteru a byl zase obratem smazán, ale web VideoCardz ho stihl zkopírovat, takže se můžeme podívat na kartu, PCB, které zřejmě patří nereferenčnímu Radeonu RX 6800 XT (Radeon RX 6900 XT bude mít jen referenční verze – tedy zatím, toto prý možná není trvalé a nereferenčky se později také objeví). Toto PCB asi nemusí být finální, může jít o prototyp či ES verzi. Chladiče napájecí kaskády jsou asi provizorní, ovšem deska samotná už dost možná je blízká finálnímu provedení.

256bitová paměťová sběrnice

Samotné GPU Navi 21 (asi) XT je zakryté, ale okolo jsou jasně vidět pozice pro paměti GDDR6. Je jich osm, což odpovídá 256bitové sběrnici. Teoreticky by mohlo na druhé straně být dalších osm čipů pro 512bitovou sběrnici, ale ta je asi hodně nepravděpodobná a 384bitovou tato fotka asi prakticky vyloučila. Opravdu to tedy vypadá, že na 256bitových pamětech GDDR6 už se nic nezmění – HBM2e tato karta nemá.

PCB grafiky AMD Radeon RX 6800 XT
PCB grafiky AMD Radeon RX 6800 XT (Zdroj: VideoCardz)

Jak lze vidět, přídavné napájení je zřejmě dvěma osmipiny (teoreticky by ořez mohl skrývat i třetí), což dříve znamenávalo TDP do 300 W, ale dnes dvou-osmipinové karty „jí“ i ze slotu, takže teoretické maximum je až cca 375 W (viz 320W GeForce RTX 3080350W GeForce RTX 3090). Referenční karty také budou mít dva osmipiny, takže to by měla být norma.

Náznak očekávané spotřeby může dávat napájecí kaskáda, která vypadá na celkem 16 fází – pokud mi tedy něco neuniklo (ještě by ale mohlo číhat překvapení pod rozšířeným kusem levého pasivu). Posazení fází do dvou sloupců z obou stran GPU vypadá na první pohled hrozivě, bývali jsme zvyklí, že kaskáda je jen z pravé strany. Nicméně toto mají i RTX 3080 a RTX 3090.

Napájení na 300 W a víc?

GeForce RTX 3080 má v referenční podobě napájení s 16 fázemi, ale mnohé karty používají fází víc. Podle tohoto by RX 6800 XT mohl mít cca stejnou spotřebu nebo mírně nižší, ale není to spolehlivé vodítko, jeden design může počítat s vyšším zatížením na jednu fázi než druhý, plus toto asi není referenční karta a může počítat s OC. RTX 3090 má jinak 18 a víc fází.

Prototyp AMD Radeon RX 6000 Zdroj Bilibili
Prototyp AMD Radeonu RX 6000, jehož fotografie unikla začátkem září (Zdroj: Bilibili)

TDP se snad dozvíme příští týden, kdy firma grafiky odhalí. Asi se nicméně lze rozloučit s perspektivou karet výrazně úspornějších než Ampere, kterým by stačilo něco hluboko pod 300 W. I když je asi pořád možné, že referenční modely alespoň nepřelezou tuto hranici (uvidíme…).

Jaké celkové TDP (spotřebu) bude podle vás mít Radeon RX 6800 XT (tj. druhý nejrychlejší model generace RDNA 2 s GPU Navi 21 XT)?

Mimochodem, na okraji fotky jsou vidět obrazové výstupy, podle nichž i tento snad nereferenční model používá dvojici DisplayPortů a jedno HDMI, přičemž čtvrtý výstup je USB-C. Nvidia u Ampere USB-C zrušila kvůli tomu, že standard VirtualLink je zdá se mrtvý. Ale tento port může být zamýšlený spíše pro připojení běžných monitorů, které dnes občas už vstup USB-C používají. Elektricky by snad měl používat režim DisplayPortu, takže k němu doufejme bude přes redukci nebo zvláštní kabel možné normálně připojit DisplayPortové LCD.

AMD Radeon RX 6900XT Zdroj: JayzTwoCents

Galerie: Referenční grafické karty Radeon RX 6000: fotografie, úniky

Zdroj: VideoCardz

Uniklo PCB Radeonu RX 6800 XT: 256bitová sběrnice potvrzená, VRM pro vysoké TDP
Ohodnoťte tento článek!
4.2 (83.16%) 19 hlas/ů

107 KOMENTÁŘE

  1. podle mě to vypadá na další zklamání, velká spotřeba plus 256bit sběrnice která se hendikep pokouší kompenzovat chytrou technikou, jenže ta nebude fungovat všude. RTX 3070 zase jen s 8GB – po těch letech by to za 14000,- chtělo vážně víc, vždyť osmigigovky jsou tu od doby R9 390 a to už uplynulo hodně vody, nebo 16GB AMD ale tradičně nevyrovnaný výkon – Sofiina volba….

  2. Nemam s toho velku radosť, spotreba 300W+ a zbernica len 256bit, GDDR6 len 14-16, priepustnosť 2x menšia ako konkurencia, dufam že to AMD obháji výkonom. Som zvedavi čo za patent AMD vymyslelo že to ma dorovnať vykon velkej zbernice a vykonnych pamati.

    • No aspoň přestanou řeči okolo žravosti jen na jedné nebo na druhé straně. Pěkně se to vyrovná. V obou případech je to na mě moc… Grafiky mě netlačí takže zůstávám na svém. Ta 256 sběrnice… no uvidíme třeba to fakt nějak AMD udělalo, že to nebude vadit. Tohle mě jako HW zaměřeného člověka opravdu zajímá.
      Jinak pokud bude výkon kolem 3080 tak to podle mě stačí teď záleží na cenách.

    • Co by prosim ta tam robil Thundrbolt3? To bude DP, cez USB-C konektor. Dnes je to standard v novych monitoroch a o notebookoch ani nehovorim. Tak tipujem, ze AMD sa rozhodla, ze sa prida k tomu trendu. Na pripojenie k monitoru budes moct pouzit druhy kablov. To je podla mna cele.

      • Myšleno to bylo tak, že pokud tam bude datové rozhraní, tak spíše mi vychází TB3, a navazoval jsem na Honzovu myšlenku rušení USB-C u nvidie. Použít USB-C konektor jako rozhraní pro prostý DP mi připadne ichtylní – už proto, že miniDP i DP konektory mají lepší provedení a redukovat DP na USB-C alt DP není problém (pasivní přechodka či kabel)

        edit: notabene, když USB-C je za dlouhé roky jeden z nejdebilnějších konektorů s mizivou kvalitou a výdrží.

          • jinými slovy, proč osazovat podivný USB-C konektor, když v něm bude jen DP, který má vlastní konektory. Nicméně pokud tam bude i datové rozhraní, tak hned další otázka je k čemu. A tam pak zase vyvstává otázka, jakou šířku pásma potřebuješ.
            Jde totiž o to, že TB3 integruje mj. PCIexpress a k tomu má 2x takovou rychlost jako nejlepší USB. Pokud bych stavěl nový standard (ať je to nějaká evoluce CF/SLI, apod., nebo podpora VR atd.), stavěl bych na nejlepší možné technologii, která poskytuje nejvyšší výkon,tedy TB3. Ale samozřejmě to taky může znamenat, že si někdo z marketingu vydupal USB-C s DP, protože má smlouvu s nějakým výrobcem monitorů, co do toho svého „produktu“ vymyslel tenhle „moderní“ trapný konektor a BFUčka to prostě chtějí.

            • Tak jeste jednou, proc davat TB3 na dedikovanou grafiku, kdyz mam jine moznosti primo v PC (tedy i ten TB3)?

              Chapu jej jako rozhrani pro vice zarizeni najednou u notebooku (sam ho mam), tam to dava smysl, ale na co u dedikovane grafiky?

              O novem standardu pro multi GPU doted nebyla zadna zminka, takze to je jen spekulace, ktera se podle me vubec nepotvrdi.

            • leppard: třeba proto, že to rozhraní využije samotná grafika?
              Donedávna jste uchcávali z VR (která se ukázala jako další slepá cesta a hype, stejně jako 3D brýle apod.) Co když bude chtít pro změnu zase AMD něco hypovat?
              Výše uvedené CF a VR jsem uvedl jako příklady, kdy by to smysl dávalo. RDNA2 vypadá celá podivně a našišato (sběrnice, atd.), takže já bych klidně nějaké další překvápko čekal – už jen proto, že s tím dělají takové tajnosti, které si fakt v takovém měřítku nepamatuju.

            • „třeba proto, že to rozhraní využije samotná grafika?“ – to nerozporuji, akorat to zatim na nic takoveho nevypada.

              Ja z VR nikdy neuchcaval, to si me s nekym pletes, takze jsi mimo a dost nesikovne mi podsouvas veci, ktere jsem nikdy nenapsal…

              Ale hlavne, uz jsem to psal, TB3 by tu kartu vyrazne zdrazil, proto je to hodne nepravdepodobne.

            • Tipuji to na USB 3 + DP alt mode. Může to být dobré na monitory, které mají USB hub, že se to připojí jedním kabelem.

    • Dell dělá monitory s usbc. Microsoft dělá dockiny s usbc pass through pro monitor. Přijde mi, že usbc se i díky častým usbc připojením na notebookach začíná rozjíždět i jako konektor pro monitory. Smysl to dává.

  3. Podlě mě AMD čekalo, že 3080 nebude mít ten nejvyšší čip a výkon cílili jinam. Ale nVidia čipy posunula a i spotřebu vyhnala do extrému a teď musí i AMD se spotřebou nahoru.

    Každopádně s tím jejich super hyper dobrým procesem by s takto velkou spotřebou měli nVidii porazit a nebýt pár procent pod ní. Realita bude ale podle mě jiná.

    A to je Ampere výpočetní profi arch. Kdyby se Huang zaměřil čistě na gaming a dal to k TSMC, AMD by zkrachovalo.

      • „Zajímalo by mě, co budeš psát až se třeba ukáže, že radeony budou na úrovni 3090…“

        A co budes psat ty, kdyz to tak vubec nebude? Ze je to zajimavy pocin, jako jsi psal u Vegy? 😀

        Hele v pohode, at si ma kazdy nazor jaky chce, ne? Nebo Ampere neni zamerene na vypocty? Ikdyz mas pravdu v tom, ze ta vypocetni verze je od herni dost odlisna…ale proc hned LOL? 🙂

        • Já nebudu psát nic, protože nic takového netvrdím. Já stále čekám – na výkon, ceny, spotřebu, ale třeba i technologické řešení.

          Vega byla a je zajímavý počin, protože ve všech ohledech vybočovala z řady. Z technologického hlediska byla zajímavější, než všechny Pascaly a Ampéry. Za tím si stojím.

          Co se Ampéry týká, má AFAIK ECC pouze A100, a to díky HBM, takže tolik k výpočtům (pokud chceš opravdu počítat, a nikoli odhadovat)

          • Já nVidii neobhajuju. 3080 doma pár dní mám a zatím smíšené pocity. Působí to na mě šité horkou jehlou s vlastnostmi, na které u nVidie nejsem zvyklý.

            Všichni nadávají na samsung a výrobní proces, proti kterému je TSMC o generaci a půl jinde, tak bych očekával, že to podle toho bude u Radeonů vypadat.

            Pokud radeon neporazí žravou nvidii, která ani není evidentěně primárně herní, tak je to opět fail.

            • Fail je relativni pojem. Ano, mzues to tak brat, pokud je opravdu 8nm Tamtungu o tolik horsi nez 7nm TSMC. Teda aspon ciste technicky.
              Pokud ale beres srovnani toho, jaky vykonostni level nabizela AMD posledni roky od prichodu Pascalu, kdy byla nekolik let silny ‚underdog“ (mozna i driv), a ted vyda soubezne s NV generaci, ktera je na tom vykonove podobne, tak bych to failem nenazyval. Stejne bude do jiste miry rozhodovat i cena.

            • Ano, to souhlasím. Bez kontextu by to pořád byl od AMD slušný comeback. A je to lepší než nic.

            • Tady IMHO nejde o obhajobu, ale o akceptaci. Já osobně třeba neakceptuji nic se spotřebou přes 200W TDP – to ale neznamená, že ty karty jsou špatné, jen potřebují nějaké prostředí (klima, case, chlazení, hlučnost). Nemyslím si, že 3080 je šitá horkou jehlou, zvlášť když si vyhráli s konektory na napájení, designem, apod. To je spíše důsledek snahy udržet nějaké politiky (výkonnostní král apod.) a kdo chce ticho, bude muset tunit (podobně jako u AMD karet se daly dosáhnout lepší provozní vlastnosti).

              Co se žravosti týká, tak si myslím, že to bude asi plichta (0-30W rozdílu tam či onam nehraje roli, je to do 10%), spíše jsem zvědavý na ceny – ony agresivně vypadající ceny nvidie taky nakonec můžou ještě dopadnout jako „předražené“ – ale to ocení asi nejvíce zákazníci. Jako Fail spotřeby to nevidím, pokud i bude výkon srovnatelný – není co řešit, prostě to asi teď líp nejde.

              Osobně bych si přál, aby došlo k souboji obou výrobců a padly ceny, protože ty minulých pár let bez adekvátní konkurence vyšroubovalo neuvěřitelně vysoko. Mně více vyhovují Radeony, považuju je za méně problematické, než jsou nvidie, ale zatím měnit svou 5600XT nehodlám.

          • @Tynyt: „Vega byla a je zajímavý počin, protože ve všech ohledech vybočovala z řady. Z technologického hlediska byla zajímavější, než všechny Pascaly a Ampéry. Za tím si stojím“

            Vega byla zajímavá možná tak v Koduriho prezentacích a to díky featurám, které jak se ukázalo nakonec vůbec nefungovaly nebo nešly zapnout/zprovoznit nehledě na vysokou spotřebu, kterou se podařilo trochu zkrotit díky uv.
            Jinak myslím, že se většina lidí shodne na tom , že Vega byl největší průser AMD od vydání R600

            • Jo, jenže i ta R600 by se dala označit za zajímavou – ringbus, poslední 5D uarch, první karta s unifishadery a ještě na 80nm.

              Že to z mnoha důvodů nedopadlo, OK, beru. Ale to neumenšuje technologickou nálož, kterou R600 měla (a kterou nedokázala prodat). Podobně vidím i tu Vegu – hybrida výpočetní a herní karty, pokračovatele Fury, první herní grafika s HBM2 (když si odmyslíme P100) plus spousta nedotažených featur (kde se vývojáři HW a SW zjevně nedokázali dohodnout – a btw i tohle tu kartu činí zajímavou). A koneckonců taky první 7nm respin GPU v podobě VegaII. Na nějakou řadovou GTX660/680 nebo HD7850/7950 si dnes už ani nevzpomenu, ale tyhle dvě výše zmíněné GPU jsou svým způsobem milníky, byť třeba vnímané negativně. Ani jednu z nich jsem neplánoval koupit, protože byly nevýkonné, drahé a užrané, prostě mimo mé zorné pole.

            • Aha, tak ted uz to chapu, pokud to byl zajimavy pocin z pohledu toho, jak se to delat nema, tak s tim souhlasim.

            • Ale jo, klidně si rejpni, mě to nevadí. Psal jsem co tím myslím. Lidské dějiny jsou lemovány pokusy a nezdary, které dnes vypadají směšně, ale ve své době představovaly zajímavé technické řešení. Taková (problematická a neúspěšná) Mazda s wankelem je tisíckrát zajímavější než třeba nudný Superb, který je jen technologický kompilát bez kapky invence.

  4. „Z technologického hlediska byla zajímavější, než všechny Pascaly a Ampéry. Za tím si stojím.“ – tohle je podle me blbost, ale neberu ti to.

    „Co se Ampéry týká, má AFAIK ECC pouze A100, a to díky HBM, takže tolik k výpočtům (pokud chceš opravdu počítat, a nikoli odhadovat)“ – tak ty zasadni zmeny mezi vypocetnim Ampere a hernim rozhodne NEJSOU v pouziti HBM. 🙂

  5. Vy co tady a nejen tady porad brecite nad 256bit sbernici, pockejte na realne testy. Myslim, ze vyvojari vedi dost jasne co delaji a rozhodne neplati, cim sirsi sbernice tim lepe viz HBM pameti. Propustnost jako krava, ale celkovy vykon nijak zdrcujici. Pokud to takhle navrhli urcite k tomu meli duvod. Nikdo tady nezna co je v jadre, takze pockejme tech par dni s vynasenim soudu. Jasne muze se ukazat, ze to posrali a nebo taky. Nelibi se mi ani hype ani hate.

    • Dokonale výstižné.

      Beru lidi, kteří si tipnou, že bude nVidia lepší, nebo AMD. Obzvlášť když to podloží nějakou (třeba i chybnou) teorií, pořád se o tom dá mluvit. I když se nakonec nemusí(m) trefit, je to tip.

      Pak jsou ti, kteří v podstatě jako jediní na světě přesně ví, že to bude takový a makový a jiné názory neakceptují. A když už neví kudy kam, tak vymyslí cokoliv, budou místo argumentů oponentům nadávat, vysmívat se, ponižovat, poukazovat na nesouvisející nesmysly. Nesnesou pomyšlení, že by se mohli mýlit, nebo to přiznat.

      Prostě komunikace s otevřenými lidmi, kteří dávají prostor pro názor druhých, je úplně něco jiného, než se sebestřednými narcistickými egomaniaky. A je mi úplně ukradené, jestli je tím hovadem fanoušek AMD, Intelu, nebo nVidie.

  6. V první řadě půjde o
    1. výkon při dané spotřebě – tedy poměr výkon/spotřeba
    2. výkon při dané ceně – tedy poměr výkon/cena
    3. absolutní výkon v porovnání s konkurencí

    Opravdu někdo čekal, že AMD najednou vydá karty, které budou opravdu zásadně efektivnější, nebo výkonnější, než nVidia, která AMD v TOP modelech utekla již před několika lety?

    AMD je dobře nastartovaná a nabrala správný směr do budoucna. Ale nečekejte zázraky. Buďme rádi, že AMD nVidii dohání, to je důležité. Ne dokonalost, ale pokrok je důležitý.

    Za mě bude husarský kousek pokud bude AMD v highendu konkurenceschopná. Nepotřebuju mít grafiku, která bude „heč lepší než tvoje RTX whatever“. Budu absolutně spokojený, když bude k nVidii alternativa s podobným výkonem ve všech segmentech.

    • 2ratha
      napsal jsi to docela dobre, tak ja jen pro zajimavost.
      Me zajimaji pouze body 2 a 3.
      Mel jsem to tak vzdy. At s HD7970GHZ Edition, ktera byla o 3% vykonnejsi nez moje soubezne tehdy vlastnena gtx680@1420MHZ. Bylo mi jedno, ze ta Mars Edice HD7970 zrala jako tank. Mela vetsi vykon? Mela a ja jsem gamer…
      Problem pozdeji nebyl ani modifikovany Titan X s TDP Bios 475W 🙂

      Zajimalo by me, komu z Vas tady jde o co nejnizsi spotrebu.
      20% lidi? 5%?
      Udelal bych anketu.

      • Tak mne spotreba (extremni, za coz 300+W povazuji) zajima, z toho pohledu jsou zklmamanim pro mne jak NV, tak AMD :))
        Ale zase nejsem uz zadny velky gamer, takze se klidne spokojim s „mainstream“ kartou, ktera zere podstane mene.

        • 2tombo
          Taky jsem koukal jako vyvorana mys kdyz vysla rada nv 3000 na tu spotrebu.
          Ale je tu vykon, ktery tu nikdy pred tim jeste nebyl. Tak dejme tomu.
          Radeon XT – nekde jsem zahledl tabulku s komponenty, zahrnujici dokonce i ztraty skrz pcb a vyslo jim 325w na Radeon XT.
          Takze asi jo, kde chce mit wopici, musi mit i na bananany.
          Ja napriklad kdyz vidim ten vykon, asi mi bude stacit i rtx 3060 a mozna dokonce i 3050ti (jestli bude).
          Vzdyt je to sileny, rtx 3070 vyhrava nad 2080ti!

        • U mě je ještě 350 wattů „ok“. Je to na hraně, ale ještě se to chladit dá. Některý Biosy to posouvají až na 450 w. Časem to zkusím, čistě ze zvědavosti, co mi to v bedně udělá. To už je dost extrém.

      • Mě ta spotřeba zajímá hlavně z důvodu vyzářeného tepla do prostoru. Opravdu je rozdíl, jestli v létě paříte v místnosti, která má 27°C, nebo třeba 32°C 🙂
        Takže primárně budu pošilhávat po kartě kolem 250W.
        Ale kdo ví? Třeba bude cena RX 6900XT tak výhodná (čemuž nevěřím), že se plácnu přes kapsu a pořídím jí 🙂 Ale spíše ne. Jak stárnu, mé priority se stávají komplexnější.

          • víš kolik je 36°? To je tak na chcípnutí … dlouhodobě … pokud se to zvedá na 30, třeba na dovolené bez klimatizace, už neusnu a doma když je 27, sedím nonstop u větráku a v noci 2x do sprchy 😀

            • 2gogo
              Vim to dobre kolik je 36C v obyvaku. Obvzlast v srpnu je u nas horko, 35C na terase ve stinu neni vyjimkou.
              Nastesti je loznice uplne na druhe strane domu. Tam je i v lete prijemne a nejchladneji.
              Jedno leto jsem musel snizit OC o 200mhz na CPU. Teploty byly proste na muj vkus az moc. Okolni prostredi ma jasny vliv take. To beze sporu.

            • „já bych v srpnu vypnul topení …“
              No právě. A když to topení máš v PC a chceš zrovna pařit….

          • mám obývák taky na jih, ale (naštěstí) >1m tlusté zdi s docela vysokou tepelnou kapacitou a hlavně 4,5m vysoký strop. I tak dokáže počítač tu místnost spolehlivě vytopit (1ks homo sapiens = 1kW, 1ks PC = ccca 0,5kW)

            • 2tynyt
              myslim, ze ti pomaha dost ten vysoky strop. Minimalne oddali dobu, nez se ten teply vzduch zacne hromadit i dole, kde clovek existuje 🙂
              Kez bych mel taky 🙂

            • jj, blbý jsou okna – kastláče 2,5×1,2 metru… Ale od doby, co jsem dodělal půdní vestavbu, je to lepší.

          • Přesně to je ten důvod – francouzská okna na jih. Já to řeším komplet vodním okruhem. To mi sice rapidně zlepšilo teploty GPU a CPU, ale celkové vyzářené teplo do místnosti je ve finále stejné. Např. v zimě mám v pokoji s PC teplotu o ca 1.5°C vyšší. Takže PC si v létě spokojeně vrní, ale já se peču.

        • Moje ASUS Strix 1080Ti OC v zátěži atakuje 300W a přesto věřím, že málokdo z obou táborů (příznivců Geforce/Radeonu) by ji označil za nepovedenou kartu. Růst spotřeby o pár desítek wattů není problém pokud je kompenzován slušně provedeným chlazením. Nakonec die size GP102(471mm2) bylo o více než 10% menší než očekávané Navi21(536mm2?). Neznámou zůstává případné rozdílnosti v rovnoměrnosti produkce tepla na ploše die s ohledem na změny v architektuře.

          K rathanuvielovým hodnocením z hlediska úspěšnosti na trhu bych přidal další ne méně rozhodujcí
          4) schopnosti (pro někoho může být rozhodující podpora CUDA, výkon RT)
          5) dostupnost na trhu !!!

  7. U mě spotřeba také hraje roli ale došel jsem k závěru že už nebudu čekak stačí když mě nas… Intel s Ice Lake.
    Možná by mě stačila i RTX 3070 ale chci to na 4k tak proto RTX 3080.
    Co se týká letních teplot(30°+) jak tu nekteří píší, pokud už budu hrát v takovém horku tak můžu přepnout na 1920×1080 snížit TDP a omezit výkon, jedná se o nekolik dnů v roce a nebo si zapnu jiný počítač.

    • Mňa neštve ani tak spotreba, ako ta hlučnosť potrebna na chladenie. Keby tych 300W dokazali uchladiť pasivne tak čert to ber, ale oni potrebuju tri vrtlniky na uchladenie a to už pod 12dB chladiť neide…

    • Já v létě mívám běžně kolem 30 stupňů v bytě když jsou horka (panelák sice 4p ale pod střechou). Takže v takové době zapínám klimatizaci a jestli jede nebo nejede počítač už nepoznám, nechávám klimou udržovat příjemných neledových 25 stupňů, v US to pak bude ještě menší problém, mají klimy běžně na 21-22 stupňů 🙂

      Mě osobně by RTX3080 s 320W TDP přišla fajn, hraju s FPS capem, 2560×1080, RTX2070S ve většině her v max detailech, včetně RT, pokud je to aplikovatelné, nejede naplno a typická spotřeba je někde kolem 70-80% (jak podle monitoringu karty, tak monitoringu zdroje – Corsair RMi a tomu pak +- sedí i měřák do zásuvky), takže tak 150-175W a to je po 2080S nejméně efetivní Turing. RTX3080 by jela tak cca na půl plynu v nejnáročnějších titulech, takže spotřeba by mohla být ještě nižší, počítám 120-150W, v titulech jako Destiny 2 bych čekal spotřebu pod 100W. Před 2070S jsem měl GTX1080, ta jela mnohdy na max a aby nethrotlovala, měla navýšený power limit, takže spotřeba šla často nad 180W a končila na 200W, před ní jsem měl GTX980, tu jsem taktoval do mrtě a jela na max snad pořád. Spotřeba s navýšeným power limitem zase kolem 200W ale mizernějším výkonem než 1080.

      Mít výkonnou kartu a nevyužívat její výkon na max. přináší nižší spotřebu, ale jen kvůli té spotřebě a potažmo tiššímu provozu (u Destiny 2 bych očekával zcela pasivní chod) si ji kupovat nebudu.

  8. Otázkou zůstává, jestli zase někdo přijde s modelem, co má 2x HDMI (2.1) . Docela mě zaráží, jak karty mají třeba 4 DP, ale jenom 1x HDMI. Docela ty HDMI porty potřebuji, ať nepoužívám redukce.

  9. Mám tu takovou (dobrovolnou – nikoho nenutím odpovídat) anketu…

    Mějme 2 grafické karty. gkA a gkB a tyto výskedky v benchmarcích (rasterizace; základem budiž výsledek gkA):

    Firestrike Extreme 4K:
    · gkA 100 bodů
    · gkB 82 bodů
    => gkA je rychlejší ca o 22% (resp. gkB je pomalejší o 18%)

    Time Spy Extreme 4K:
    · gkA 100 bodů
    · gkB 97 bodů
    => gkA je rychlejší ca o 3,1% (resp. gkB je pomalejší o 3%)

    Které tvrzení vám přijde (na základě výsledků výše) blíže pravdě?
    a) gkA dýchá na záda kartě gkB
    b) gkB dýchá na záda kartě gkA

      • Uvidíme. Pak je druhý extrém, když spousta lidí (většinou ti, co si AMD „nekoupí nikdy“) tvrdí, že aby AMD stálo za to, tak musí být lepší, než nVidia nebo max. stejně dobré, ale přitom podstatně levnější.
        Takže charitu neočekávám, ale zároveň doufám, že AMD ty marže nepřepálí a zohlední přípdné nižší výrobní náklady.

          • Jako veřejně obchodovatelná společnost je v rámci ochrany zájmů investorů přísně dohlíženo na to jak a jaké informace společnost společnost vypustí (viz soudní omezení Elona Muska promlouvat za společnost Tesla). Proto zveřejnění výsledků neurčeného zástupce rodiny karet RX6000 je jediný možný postup pokud bylo i cílem nechat konkurenci v nejistotě. Informace sice není přesná, ale ani nepravdivá a všichni akcionáři AMD stávající/potenciální k ní mají přístup. Jako vedlejší produkt fanouškům značky pomohla přežít další měsíc (do výsledné euforie/zklamání). 😉

            • věta na wcc … myslím že sedí dobře … „Most of these rumors and supposed benchmarks fall into the category of stories amounting to, „My best friend’s sister’s boyfriend’s uncle knows this guy who has an RX 6800 XT, and he says…“ Again, what drivers are these cards using? What GPU are they running? Take a few spoonfuls of salt, in other words.

  10. Kristove ľavé oko….256-bit a priepustnosť VRAM jak na upchatom vodovodnom odtoku…V AMD načisto rozum potratili, takéto sprostosti si nekúpi ani nemenovaný stachan….
    Prekrásnu básničku venujem všetkým dobrým ľuďom so širokým srdcom a zmyslom pre hi-tech:

    77 sukien mala,
    za Ryzen sa neprovdala.
    nVidia rozum mala,
    s Intelom si rande dala.
    Výkon je to mohutný,
    hry to drtí raz-dva-tri…