AMD Radeon VII na fotografiích. Rozborka a vnitřnosti chladiče a PCB

AMD dovolilo recenzentům ukázat Radeon VII, a tak jsou na světě snímky, včetně rozebrané karty, chladiče a PCB. Překvapením je grafitová teplovodivá vložka.

159
AMD Radeon VII (Zdroj: HardOCP)

Tento týden (mělo by to být 7. února) by se měl začít prodávat Radeon VII, tedy highendová herní grafika AMD s čipem Vega 20, zatím prvním 7nm GPU. Recenze patrně vyjdou současně s tím, ale už teď o pár dní dřív AMD patrně povolilo NDA a dovolilo novinářům publikovat fotografie karet. Na webu se tak objevily obrázky reálného provedení (zatím jsme totiž měli hlavně vizualizace nebo málo ostré fotky z CES) a co je asi zajímavější – rozborky ukazující, co čeká uvnitř.

Tzv. unboxing publikoval například techPowerUp, ComputerBase nebo Tom’s Hardware. Pokud preferujete video, má ho například HardOCP nebo také GamersNexus (na těchto videích je i rozebírání, o tom za chvíli). Karta, kterou můžete na fotkách/záznamech vidět, by měla odpovídat standardní prodejní verzi, ovšem jde o recenzentské sady. V jejich balení se nachází i akrylátový podstavec s osvícením, které mění barvy (pohání ho dvě tužkové baterky), a jeden reálný čip Vega 20 na ozdobu, patrně vadný. Tyto suvenýry v normálně prodávaném balení nečekejte.

AMD Radeon VII (Zdroj: ComputerBase)

Chladič s vapor chamber a heatpipe

Fotky asi netřeba moc komentovat co do vzhledu. Kromě těch přímo zde v článku si můžete další vybrané obrázky poprohlížet v rozšířené galerii, odkazovaná na začátku a konci tohoto článku. Karta má pouzdro chladiče z hliníku, z kterého je i backplate, takže pokud tento materiál preferujete, budete spokojení. Povrch je hladký bez ozdob až po perforaci v backplate a přirozeně ventilátory. Výjimkou z tohoto je červený nápis Radeon na hřbetu karty a malá červená krychlička s písmenem R na jejím rohu u prostoru pro napájecí konektory. Po osazení a zapnutí tato místa červeně svítí.

Chladič Radeonu VII zespodu (Zdroj: techPowerUp)

Chladič s třemi axiálními ventilátory některé weby sejmuly a rozebraly. Potřebujete k tomu kromě křížového také šroubovák typu Torx (T8 a T5), ale konstrukce a upevnění údajně nejsou tak komplikované, jako Founders Edition chladiče Turingů, není použito lepidlo. Díky rozborce víme, že základna chladiče je měděná a kombinuje vapor chamber a heatpipe. Vapor chamber v levé části chladiče je poměrně velká a tvoří hlavní základnu dotýkající se GPU. Pravá část pasivu je na ní napojená pěticí 10mm zploštěných měděných heatpipe, které jdou (kromě jedné kratší) po celé zbývající délce chladiče.

Spodní strana pasivu s heatpipe a vapor chamber (Zdroj: techPowerUp)

Mezi základnou chladiče a PCB je ještě ocelový baseplate, který ochlazuje VRM a je pro změnu ochlazován dotekem se spodkem pasivu. Když se podíváte zespodu na žebra, můžete vidět, že jejich sklady jsou po celé spodní ploše. To znamená, že vzduch neprochází chladičem kolmo až k baseplate, ale je vyfukován jen po stranách pasivu, kde je kryt otevřen. Polovina ho jde ven z karty, druhá polovina je vyfouknuta směrem k PCB základní desky. Jako u všech karet s axiálními otevřenými chladiči tohoto typu je tedy třeba mít dobře odvětrávanou skříň.

PCB Radeonu VII (Zdroj: techPowerUp)

Speciální grafitová vložka místo pasty

Co je zajímavé, je přenos tepla. Mezi GPU základnou chladiče není teplovodivá pasta. Místo toho je použitá teplovodivá vložka, ovšem ne obyčejná. Má zřejmě jít o něco na bázi grafitových vláken, údajně o vložku Hitachi TC-HM03. Ta má mít efektivní tepelnou vodivost 25–45 W/mK (teoreticky až 90 v kolmém směru skrz plochu). To by bylo o dost víc než u běžných past, pokud by reálné chování odpovídalo. Důvod použití této vložky není znám, mohlo by jít buď o snazší montáž, nebo o to, že podložka snadněji vyrovná případné výchylky ve výšce pasivu nad GPU při ruční montáži karet.

Stopy grafitové teplovodivé vložky (Zdroj: techPowerUp)

Tato vložka se ale zdá se nedá s chladičem nedestruktivně sejmout – pokud byste ho demontovali, musíte být připraveni plochy očistit a aplikovat místo vložky nějakou kvalitní pastu. Otázka je, zda pak nebude chybět tloušťka, protože originální vložka není úplně nejtenčí. Zdá se tedy, že není dobrý nápad pasiv snímat, pokud k tomu nemáte důvod.

Hlučnost?

Mimochode, preview webu Tom’s Hardware se zmiňuje, že Radeon VII je „hlasitý“. Pokud nejde o nějakou metaforu, patrně i přes axiální koncepci nemusí vůbec být tichý, i když mimo zátěž zdá se výjimečně hlasitý není (HardOCP ho má natočen po spuštění). To by se však mělo ve čtvrtek vyjasnit. Je celkem možné, že chladič není příliš optimalizován a vyladěn jako chladiče na nereferenčních kartách, protože byl vyroben speciálně pro tento model (u kterého se možná nečekají moc velké prodeje).

Ventilátor z Radeonu VII (Zdroj: GamersNexus)

Co dalšího se ještě ve „vypixlováváních“ objevilo za informace? Radeon VII v tomto referenčním provedení váží 1,285 kg. Ventilátory označené FD8015H12S vyrábí firma FirstD a mají maximální proudový odběr 0,32 A (takže při plném tahu by chlazení teoreticky bralo až 12 W). Přimontované jsou přes malé plastové výběžky přímo k hliníkovému plechu krytu. Zajímavé je, že žebrování obklopuje na krajích ventilátory i z boku, což obvykle nebývá, pasiv je obvykle jen pod ventilátory. MOSFETy jsou na kartě použité International Rectifier/Infineon IR35401 (kontrolér je IR35207), takže napájení by mělo být opět docela kvalitní.

Prohlédněte si: Galerie snímků z rozborek Radeonu VII:


AMD Radeon VII na fotografiích. Rozborka a vnitřnosti chladiče a PCB
Ohodnoťte tento článek!
4.7 (93.85%) 39 hlas/ů

159 KOMENTÁŘE

  1. napájení je kvalitní , bodejď by ne když má ten malý čip TDP 300W. To asi souvisí i s tou poznámkou o hlučném chlazení a použití speciální pasty, protože ten čip nejen hezky papá, ale taky bude pěkně topit 🙂

    Pokud jde o hraní, tak kromě hardcore fanoušků ta karta nemá moc šancí někoho oslovit ( pokud ji nedostanete třeba jako dárek) Od Navi se dá čekat podobný výsledek, možná přece jen o trochu lepší ve smyslu toho, že pujde o menší mainstream čip. Takže do vydání nové GPU architektury AMD nemá kromě Polarisu nic zajímavého a Nvidia bude lepší volbou, obzvláště po vydání vlastních 7nm čipů.

    • Alew furt je PCB z části neosazený a toho hliníku tam moc není i když to zvenčí vypadá, tak díky hlubokým větrákům je to skoro celé vevnitř prázdné. Pokud to skutečně bude žrát 300W, tak to logicky tak moc chladit nebude, navíc když většina tepla půjde do desky. Ty větráky jsou malého průměru, takže budou muset točit.

    • Jj, toto je tzv. “zimni edice”, ladena do stribrne, v chladnych dnech zahreje. Aneb 2v1 – hrajte o sto sest nekolik hodin bez bez ztuhnutych prstu. 😉
      A ted vazne, s tou pameti to bude max na rendery, hraci to nevyuziji. Nicmene profici to zase neoceni skrz spotrebu, takze…. Jak jste psal, jedine co ma dnes AMD zajimaveho jsou RX 4×0 a 5×0 vyjmna noveho nesmyslu RX590.

    • Tak pokud se potvrdi, ze Vega VII sotva dozene RTX2080 (a to sotva je dulezity, protoze vychazime z marketingovych zdroju AMD), bude to opravdu legracni. Vzdyt 7nm proces nabizi temer 4x vetsi hustotu transistoru na milimetr. Zda se, ze GCN architekture uz nepomuze vubec nic.

      A to smesny zamereni “na AI” – vzdyt muj desktopovej Turing ma diky TensorCores nekolikanasobne vyssi vykon nez ta jejich “profi” karta, pricemz u Vegy kdyz vyuzijou vykon k AI vypoctum, utrpi tim vykon ve 3d (vyuzivaji se stejna jadra), zatimco u Turingu od Nvidie muze aplikace zaroven zvladat AI i 3D grafiku, protoze oboje ma vlastni nezavisly hardware 😀

    • Nadšenie môžeme čakať maximálne u takých ako DD. Tam už to je vidieť na jeho preview. Výkonovo tá karta nie je zlá. Je fajn, že má AMD GPU na úrovni RTX 2080. Má výhodu v tom, že ide o citeľne menší čip (keďže využíva 7nm výrobný proces) a 16GB VRAM. Na druhej strane žerie viac aj napriek nižšiemu výrobnému procesu (zrejme problém architektúry Vega). Pre ludí, čo radi kupujú AMD je to aspoň alternatíva. Každopádne Turing je modernejší a má navyše RT a Tensor Cores. Určite by si zaslúžil viac VRAM, ale koľko GPU má dnes a bude mať viac ako 8GB VRAM? Podľa mňa ani najbližšie 3 roky nebudú vývojári robiť hry tak, že by urobili z 8GB VRAM handicap. Takže nový Radeon VII je slušná karta, ale nevidím dôvod pre nadšenie.

      • JJ Marku však tak jak jsme se už spolu bavili já jen v tom RT nevidím tu výhodu je to tak na ukázková dema a než přijde větší rozšíření RT ve hrách, tak ty první grafiky už na to nebudou mít výkon… Čili beru ty grafiky tak jaký mají výkon bez RT.
        Tento Radeon vidím jako z nouze cnost… Není to FAIL ale není to ani hitparáda a ty provozní vlastnosti…
        Já se těším na ZEN2. Už aby to tu bylo a mohl jsem to otestovat.

      • Ad velikost čipu, co je pro mě, jako zákazníka, výoda v menším čipu, po tom jak velký to má čip Je jedno, přede mnou leží produkt, který má svou cenu, svůj výkon a je jedno zda je to 7nm nebo 12, 14, 28…

        • Veľkosť čipu a ani výroba nie je samozrejme pre zákazníka dôležitá. Je to výhoda iba z pohľadu AMD, že by mali mať lepšiu výťažnosť a výroba čipu by ich mohla stáť menej. Aj keď je otázne či to tak reálne je a teda otázne je v akom stave je 7nm výroba. Ale máš pravdu, že pre zákazníka to je vlastne jedno.

          • Z pohledu výroby ano, menší plocha, chyba na wafferu zničí jen tu malou plochu, ne výrazně větší. Ano, na druhou stranu 7nm má být poměrně drahá výroba a pak je otázka zda větší technologie není efektivnější. To je krásný příklad těch HBM, propustnost 1TB/s ale nezdá se že by to bylo nějak zásadně lepší než karty s poloviční rychlostí.

            Jak jsem někde napsal, mám za to že ta karta měla potenciál obrovský ale nevyužila ho.

        • JJ. DLSS je tiež dosť zaujímavá technológia. 🙂 V benchmarkoch sa aj dá očakávať, že by mala podávať zaujímavé výsledky. Otázne je ako to bude v hrách. Škoda, že BF V podporu DLSS nemá a že stále nevydali RT a DLSS ani do Tomb Raidera. Tak by sa to dalo lepšie zrovnávať.

            • Uz jsem zkousel ten DLSS 3Dmark. Zajimavy je narust vykonu ve 4k. Z 18fps na 36fps. Pritom obraz jak se supersamplingem. Jsem velice zvedav na BFV (ktery dava ve 4k bez DLSS 40-50fps) a Metro ve 4k DLSS.

            • Tak jestli jsou tyhle záběry pravdivé, tak se všichni ti AMD hejtři můžou jít zahrabat s tou jejich slavnou rasterizací. Rasterizace je mrtvá, ať žije DLSS!!!! A Huang je král.

            • Nemám RTX kartu, takže si to nepustím. Nicméně na tom videu je DLSS obraz výrazně ostřejší než s TAA a i některé objekty jsou vykresleny dle mě lépe. A to při až 50% nárustu výkonu.

              4k jsem neviděl ale pochybuji že se něco zvedne z 18 na 36FPS. Nicméně pokud je to stížnost na FPS, tak je třeba brát v úvahu že je to benchmark který má těm kartám zatopit a měl by zatápět kartám i za pár let. Pamatuju nějaký postarší 3DMark kde snad byl DX10 jako novinka a běželo mi to 5-10FPS, hry v DX10 ale rozhodně na té kartě běžely výrazně rychleji.

            • Je to ostřejší asi jednak protože ten filtr DLSS obraz přiostřuje, ale hlavně tam to TAA strašně rozmazává pohyb. Nevím, jestli je to ještě normální nebo už zprasený, ale je škoda že to neporovnají s nativním obrazem bez AA nebo s nějakým jiným post-processingovým AA, který by takhle nerozmazával.
              Takhle vůbec není vidět, jak dobrej ten upscaling je…

            • Tady je test na moji 2080Ti, cca 18->36fps

              https://i.imgur.com/zxrwYIt.png

              Uz se mnozi i jine testy, ktere narusty ve 4k potvrzuji. Je ovsem nutne pripomenout, ze narust vykonu se bude lisit engine od enginu. 3Dmark RT cores hodne pretezuje, narust bude vetsi, nez bych cekal treba od SoTR.

            • Test DLSS v 3Dmark… je na urovni TAA. Nekde je kvalitou trochu lepsi, nekde naopak horsi. Dochazi i k “problikavani”.
              ” By and large, image quality with DLSS is comparable to TAA, sometimes better, but also sometimes worse. This is particularly clear by a flickering vertical and horizontal edges. The lower resolution, which is calculated for DLSS, is also noticeable every now and then.”
              https://translate.googleusercontent.com/translate_c?depth=1&hl=cs&rurl=translate.google.cz&sl=de&sp=nmt4&tl=en&u=https://www.hardwareluxx.de/index.php/news/software/benchmarks/48531-3dmark-mit-dlss-im-kurzest.html&xid=17259,15700022,15700124,15700149,15700186,15700191,15700201&usg=ALkJrhhEqtARTR1m0P2GLgle-ulDnCCCQw

            • To co pise hwdlx se naprosto nesetkava s realitou. TAA podava nesrovnatelne horsi vysledky ve vsech ohledech. DLSS se vyslednym obrazem blizi supersamplingu. Panum nedochazi, ze v demu je hodne artefaktu od samotneho RT, ktere nam s AA co delat, DLSS si nemuze vymyslet neco co ve zdroji neni.

            • @J.Olsan.. kazdy kdo aspon trochu pracoval s fotkama, viedem tak vi, ze nejde z obrazu v nizsim rozliseni udelat lepsi obraz ve vyssim s lepsi kvalitou, nez ma nativni vyssi rozliseni. Kdyby to tak bylo, byla by uz davno v upscalingu videa a fotek revoluce.
              To ze ten supersampling vylepsuji na zaklade trenovane AI, ktera se sazi odhadovat, co v tom obraze je je sice zajimavy pokrok, ale vzhledem k poctu ruznych kombinaci, ktere se tam vyskytuji, je to jeste beh na dlouhou trat..

            • @Maudit
              Věc co má na vstupu snímek s nižším rozlišením a vyplivne snímek s vyšším rozlišení není upscaler, Maudit Veliký rozhodl, že se to bude jmenovat autoencoder.
              Uh… OK.

            • Zas blbe 😁 A pritom je to tak jednoduchy, jak pro prvnacky. Vstupem autoencoderu jsou i naucene znalosti o objektech ve scene, ne jen lowres input 🤣

              “The first encoding layer might learn to encode easy features like corners, the second to analyze the first layer’s output and then encode less local features like the tip of a nose, the third might encode a whole nose, etc., until the final encoding layer encodes the whole image into a code that matches (for example) the concept of “cat”.[5] The decoding layers will learn to decode the learnt code representation back into its original form as close as possible.”
              https://en.wikipedia.org/wiki/Autoencoder

              Ze je DLSS autoencoder bylo uvedeno primo pri jeho prezentaci.

            • @Maudit
              Hele, jestli chceš tvrdit, že v tý neuronový síti je “zakódovaný” to vyšší rozlišení hry tak bezeztrátově a dokonale, že to není upscaler ale nahrazení vykreslování na nativním rozlišení, tak jseš regulérní mašíbl.
              Příště přijde Nvidia s čím, perpetuum mobile, cestování časem a výroba energie z entropie?

            • A zase blbe 😂 V ni neni zakodovany to vyssi rozliseni jako nejaka sada velkejch fullscreen obrazku, ale detaily malych prvku, ktere se pak skladaji do vetsich atd., ale nevime kolik urovni (to v zadne prezentaci nebylo). Proto se v souvislosti s autoencoderem mluvi o kompresi. Z lowres inputu ta sit pozna pak treba hranu sedacky. A naucila se vedet, jak ta hrana ma vypadat a jak ji rekonstruovat. Vsak na ty prezentaci taky ukazovali, jak ten jejich framework dokaze doplnit zcela ztraceny casti obrazu. Sci-fi co? Nemozny, co? Jenze ze si takovou vec nedokazes predstavit ani pochopit je jen tvuj problem. Pro stejne omezeny lidi bylo pred 100 lety stejny sci-fi pocitac nebo let na mesic .. 😁

              A jestli mas problem pochopit, kolik vlastnosti se v neuralni siti da “ulozit”, tak si uvedom, ze neurony mezi vrstvama jsou spojene stylem kazdy s kazdym. Chapes, kolik kombinaci to dela uz pro blby tri vrstvy o 1000 neuronech? 😉

            • Maudit> Jo jo, na Final Fantasy vidieť ako “dobre” je to momentálne schopné “rekonštruovať” malé detaily. 😉
              https://www.dsogaming.com/articles/final-fantasy-xv-dlss-is-23-faster-than-taa-in-4k-constant-60fps-on-the-rtx2080ti-comparison-screenshots/

              A rozhodne, keď v prezentácii uviedli, že vedia “doplniť stratené časti obrazu”, tak je to zaiste ekvivalent kompletného obrazu. Človeče… je rozdiel medzi skutočnými dátami a odhadovanými/aproximovanými, prípadne umelým doplnením nejakých detailov, aby obraz nebol rozmastený.

  2. Ten chladič no nic moc, to může být pak následek ten hluk. Dost mi to přípomíná jako odkaz na 7990, kdy takové chladiče měli, jsou skoro identické. A 7990 měla problém jen s hlukem, ale teploty byli na normálu, možná tento koncept je stejnej. Uvidíme na benchmark.

  3. Někdo, myslím, že Tynyt, v předchozích diskuzích psal, že tahle karta je zajímavá a že se s ní Lisa hlavně chtěla ukázat na CESu a že nemám předjímat, že to bude fail. No, ať se na to koukám ze všech stran, tak čím dál víc mi ta karta přijde nezajímavá jak pro hráče, tak pro profi využití (provozní vlastnosti). Lisa se s ní ukázala tak, že si jen opětovně veřejně podkope pověst GPU divize a nikdo už si od nich kartu nekoupí, i kdyby za to třeba jednou stály… a že to bude těžký fail? To už nepředjímám, ale jsem si jistý… Btw, jak dlouho je tu 1080Ti? Vyměnil by ji někdo za tohle? Každý nechť si odpoví sám…

    • Tohle vydali jen aby jakože ještě mněli HiEnd… Je to z nouzecnost stejně jako RX590… I když to už radši toto, kde je aspoň nějaký pokrok než RX590, kde jen zvedli takty…
      Já jsem zvědavý co Navi. Ne pro sebe grafik mám dost, ale jak se ty grafiky povedou a co budou umět. A ne nikdo to nebude měnit 1080Ti jsou pořád velmi zajímavé grafiky a dají se sehnat za míň než tento Radeon… Díky čemuž se vlastně z 1080Ti stala nyní nejzajímavější grafika.

    • Zkus definovat co znamena slovo “fail”. Je snad cely Turing fail proto, ze RT je momentalne v plenkach a pomer vykon/cena se proti predchozi generaci temer nezmenil a efektivita se nikam vyrazne taky neposunula?
      Pokud ano, tak musis Turing nazyvat uplne stejne failem.
      Ja osobne si to nemyslim, stejne jak si nemysim, ze Veka je fail. Mezi cernu a bilou existuji velke mnozstvi odstinu sedi…samozrejme pro nekoho, kdo nechce videt jen dvoubarevne.

      • Do RTX šiju, jak jen to jde, ale fail je to hlavně a předevšim cenově. Výkonově a provozníma vlastnostma ani náhodou. Kdežto tenhle Radeon na 7nm, který by měl mít oproti 2 roky starým kartám ve všem náskok? Opět ať si každý odpoví sám… P.S. Kdyby 2080Ti stála do 25k, už ji mám doma. Ale z principu jim nebudu tu zlodějskou marži dávat. A RT mě vůbec nezajímá, zatím je to pro mě techdemo, uvidíme v dalších generacích… výkonem a vlastnostma ale je tam, kde jsem si ji představoval…

        • Co je špatného na ceně RTX2060? je o 100USD levnější než 1070Ti, výkon má stejný/lepší, má technologie navíc, které 1070Ti nemá. RTX2060 je za svou cenu více než výborná nabídka a to i s ohledem na na absolutní výkon, ano v poměru cena/výkon nyní vede RX580, ale ta nemá výkon.

        • Je rozdil kritizovat nejakou skutecnost/vlastnost produktu a odsoudit smahem cely produkt. Nazyvat cely produkt failem, je odsoudit ho smahem. Podle mne je tohle chyba a kotektni je treba rict, ze v necem nesplnuje ocekavani.
          Veka 7 nesplanuje ocekavani v efektivnosti, ta je mizerna. Pro nekoho nemusi splnovat ocekavani ve vykonu, protoze bych chtel 2080Ti+. Ale to jsou zklamane ocekvani, nikoliv fail. Vykon se preci posunul oproti predchozi generaci AMD, efektivita taky. Posun tady je, byt treba mensi nez by se dalo cekat. Vypocetni vlastnosti te karty je taky lepsi nez predchozi generace, pameti ma vice, atd..
          Je to sede, neni to jen cerne nebo bile..

          Turingy jsou zajimave karty, kdyby NV nesetrila na spatnych mistech.. typicky 6GB RAM pro 2060, neprepalila to cenove a nevzbudila falesna ocekavani ohledne RT. Ocekavani nekterych nesplnil ani vykon 2080Ti, ale presto to neni fail. Teda krome ustrelene ceny…

          • Ok, nemam s tim problem, pro me je fail synonymem pro tezke zklamani. Takze pokud to bude zni lepe – neni to fail, je to pro me tezke zklamani mych ocekavani od 7nm vyroby. Ta karta neni ani dost dobra na to, byt odpovedí na 2 roky stary highend pascalu a ja tak nemam jediny duvod se o tu kartu vice zajimat. A nebudu sam, protoze ta promile lidi, co je presvedci ke koupi 16 GB VRAM, povest R7 nezachrani…

            • “rotoze ta promile lidi, co je presvedci ke koupi 16 GB VRAM, povest R7 nezachrani…”
              .. tohle je ale celkem neopodstatnene tvrzeni z nekolik aduvodu
              – nevis kolik tech karet planuji, tudiz nemuzes ani tvrdit, ze se neprodaji
              – osobne pochybuji, ze AMD s touhle kartou cili pouze na hrace
              – nevime, kolik byli naklady AMD, aby tuto kartu vyvinulo. Vzhledem k predpokladu, ze se jedna de-facto jen o modifikovanou profi kartu, budou naklady nejspis hodne nizke (ve srovnani s novym produktem), tudiz pro AMD je to win win situace

              Opravdu zajimave karty prijdou stejne nejdrive 2020, pokut tedy NV letos neprekvapi, takze kdo chce jen upgrade, muze ignorovat s klidem jako Veku 7, tak Turingy.

            • dragonie jak se nechala zmanipulovat ťokem a začla hrát podle jeho hry, že je to “zklamání” místo failu…. LOL u Vegy nemůžeš odsoudit celý produkt jen kvůli tvému zklamání, ale u nVidie musíš odsoudit celou nVidii už jen proto že to je nVidia 😀 😀 😀 LOOLLLL

            • Pokud red fans z nějakého důvodu slovíčko “FAIL” bolí, nemám problém jej nazývat synonymem “tězké zklamání”. A Jardo, zcela upřímně, některé Tvé příspěvky v diskuzích jsou pro mě také těžké zklamání… nebo fail, chceš-li…

            • Mne nejde o red fans nebo green fans, kdyz pominu nektere osoby s psychickou poruchou na tomto webu. Jde mi o to vest technickou diskusi a ne se jen emocionalni vykriky, jako tady napr Jarda Crha 🙂

            • “technickou diskuzi” 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 s tebou? 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 😀 * au bolí mě už břicho z toho smání.

            • Crha, ty jsi tak blbej, ze ani nevis, ze jsi to jenom potvrdil 😉

      • Slušná GPU? To snad ne… kdo koukne na cenu/výkon/provozní vlastnosti (na dlouho očekávaných 7nm), nemůže tohle říct a už vůbec ne to koupit… 16 GB je jediné plus v dlouhém seznamu mínusů téhle karty. S tím, že pro hráče nemá 16 GB v 99 % her význam… a až význam mít bude, bude mít v case už kartu úplně jinou…

        • Pomer cena/výkon má byť lepší ako u RTX 2080. Prevádzkové vlastnosti sú sklamaním vzhľadom na 7nm výrobný proces, ale zasa to nie je niečo, čo sa nedá prekonať. Preto to podľa mňa fail nie je. Ja by som si osobne tiež Radeona VII nekúpil a uprednostnil by som RTX 2080 kvôli podpore GPU PhysX (hrávam sem tam stále aj tieto staršie hry), Gameworks a hlavne RT a Tensor cores. Teraz využijem rétoriku AMD fandov – podľa mňa je Turing lepšia GPU do budúcnosti ako Radeon VII. Radeon VII ale určite nie je fail. Je to proste alternatíva. Na fail by musela byť výkonovo aj náročnosťou na prevádzku citeľne horšia. A to predsa nie je.

          • Pokud to dorovná 2080, tak jak to může mít lepší poměr cena/výkon když cenovka je stejná? Pro fanoušky AMD, kteří jsou obvykle citlivější na cenu je Vega60 mrtvá karta. Zvlášť když jim RTX2080 přijde předražená, tak Vega musí být předražená tím tuplem.

            • není, jednak je to “flagship” a jednak má za ty prachy tolik paměti že stačí i do budoucna což o 8GB 2080 říci rozhodně nelze, už dnes se na 8GB v 1440p musí stahovat detaily a 4K je úplně v háji na to jedině Ti nebo Titan.

            • K čemu paměť do budoucna když to do budoucna nebude mít výkon

              GTX2080 je pořád jen výkon kolem GTX1080Ti, tzn ideální pro FHD hraní bez kompromisů .- plné detaily (což mnohdy není ultra preset), FPS minimálně 60 (max a avg jde tlačit nahoru snadno i slabšíma kartama, ale minima jsou klíč k plynulosti)

          • Kde prosim je v 1440p 8GB bottlenecekm natolik, ze se musi stahovat detaily. Pokud takova hra je, opravdu nepatri mezi to zminene 1 % her, o kterych jsem psal? A pro zbylych 99 % her 8 GB neni a nebude nejaky cas zadny problem, co myslis? Nehlede na to, ze ja psal o 2 roky stare 1080Ti, ktera ma 11GB… tam je taky nekde problem, nebo vyhledove bude, ze bych mel zvolit R7 misto ni?! Ale chapu, mozna casem 1-2 hry najdes a budes mit opet neprustrelny argument 😉 😉

          • “už 8GB je v nových hrách tak na fHD když chce textury na maximum s vyhlazováním. 16GB vypadá jako overkill, ale jen z pohledu 3 roky starých her.”

            Ano hry umí využít víc paměti. Pusťme si RotTR na Titanovi a bude využívat 9GB VRAM, Pusťme si to na 2080 bude to 8GB, pusťme to na 1050 a vystačí si s 2GB bez dopadu na výkon.

            Prosím tedy přesně KTERĚ TITULY mají problém s 8GB ve FHD tak aby byl měřitelný rozdíl mezi 6 a 8GB.

            Prosím které tituly v 1440p vyžadují více než 8GB paměti aby to bylo měřitelné a snížením detailů se měřitelně zvedne výkon kvůli chybějící VRAM

            Kde je 8GB limit pro 4k že se projeví na výkonu.

            Tady by bylo ideální srovnávat buss interface zátěž. Mít ty “kritické” scénáře a kouknout jak se chová na 4GB, 6GB, 8GB, 11GB a 16GB kartě. Pokud zátěž bude výrazně vyšší a karta nebude podávat očekávaný výkon, dá se říct že je bottleneck kapacita paměti.

            Vidím to například v X-Plane, když to přeženu s nastavením a jsem v místě kde se správně sejdnou detailní textury, výkon se propadne klidně na polovinu a z řádu několika procent zátěže buss interface to skočí na 50%. Ale tohle je extrémní scénář a extrémní konfigurace, která s běžnou hrou nemá nic do činění. Jen textury pro povrch mají v mém připadě 2.6TB

            • https://www.overclock3d.net/reviews/software/fallout_4_high_resolution_texture_pack_review/4

              V 4k 6,15GB… usage, což neznamená že to je requirement a ta hra nepreloaduje/neuvolňuje textury které nutně nepotřebuje

              viz můj příklad s RotTR, na 11GB kartě pápne 9GB VRAM, ale karty s 8, či 6 GB podávají předpokládaný výkon – tzn nejsou limitovány pamětí.

              Nicméně RTX2060 vážně necílí na 4k a v 1440p i jen usage naprosto v pohodě.

              Tady jde krásně vidět jak rozlišení nehraje výrazný vliv na VRAM, jde o textury a paměť pro samotné počítání všeho

            • tak to čumím, mě to napálí VRAM 8000MB a když se pohybuji v sancuary hills tak mi ze 60 fps klesá ke 35fps, zastavím se a do vteřiny FPS vylezou zase na 60 FPS.

            • Každý engine to řeší jinak, jednou se hra začne cukat jindy rovnou spadne nebo obojí. Každopádně RE2 ukazuje směr kdy na nové hry bude 6 GB max na fHD a to ještě bez vyhlazování. Když se vezme v úvahu že 8GB karty jsou široce dostupné od jádra Hawaii tak je spíše s podivem že tu kapacitu pořádně využívají hry až v roce 2019.

            • zajímavé je že recomended karty jsou 1060, rx480, 3GB VRAM, takže opět jsme spíše u toho že hra umí využít více paměti ale na výkon to nebude mít dopad jako třeba ten RotTR.

              Pro nedostatek VRAM hra nespadne, tedy pokud nepotřebuje víc než je sdílená paměť, u mě je celkově dostupná paměť pro GPU 24GB z čehož 16GB je sdílená RAM, 8GB fyzická VRAM.

            • Takze si to shrnme, od Sarumana to byl jen pouhy vykrik do tmy, ve snaze pomoct R7. Toliko k jeho objektivite…

            • žádný výkřik ale zcela reálně naměřené údaje. Testni nového RE2 a pak se pochlub kdy ti hra spadla na nedostatek paměti. I starší hry využijí docela dost videopaměti pokud se jedná o 1440p. Stařičký Far Cry 4 bez problémů dá 5GB s vyhlazováním. Já mám své podložené proto to píšu. 8GB není žádná hitparáda a dvacet tisíc za 8GB nebo deset za 6GB kartu je brutální předražení vzhledem k tomu že grafiky už mnohdy jedou na doraz. Nepotřebuji žádná YT videa a praxi vidím ve svém vlastním stroji.

            • TRak opět ten příklad na videu RotTR https://www.youtube.com/watch?v=GGa50ja5oYU

              moderní herní enginy když mají prostor, loadují do paměti věci, které může použít později. To jde krásně vidět na tom videu, kdy to začne asi na 4GB a aniž by kamera pohla nebo se na scéně objevily extra objekty, postupně využití VRAM skáče nahoru.

              Některé enginy pak přizpůsobují různé parametry automaticky. Příklad je The Division a snowdrop engine, Pokud nemáš kartu s 6GB paměti, tak hra nemusí použít nejvyšší kvalitu textur (ta nejde nastavit, hra si ji řeší automaticky právě dle dostupné paměti), engine taktéž v době kdy není vytížený načítá do paměti věci, které nejsou zobrazené a nepoužívají se ale pokud se kamera pohne, je předpoklad že budou tyhle objekty využity, to může odstranit/nebo aspoň redukovat takové ty otravné “doskakující textury”.

              V zásadě to funguje stejně jako prefetch ve Windows, do paměti se nahrají aplikace/knihovny, které se nejčastěji používají preventivně protože se předpokládá že něco z toho uživatel bude chtít spustit, pak není třeba čekat na disk, vše už je připraveno. Když je pak potřeba paměť na něco jiného, systém tu paměť s prefetch daty uvolní.

              Proto vyšší využití VRAM neznamená že to ta hra nutně potřebuje. Proto by bylo dobré testovat na totožném HW a pak mu paměť omezit… Vzhledem k tomu že vývojáři RE2 doporučují 3GB, tak bych se nebál že 6GB karta bude mít i v max nastaveních propady výkonu

            • @Saruman: Nepadla mi zatiaľ žiadna hra kvôli nedostatku VRAM. Drvivá väčšina hier čo vidím má problém vôbec presiahnuť 7GB. Obsadenosť 5 – 6 GB VRAM je taká normálka. Task managera so štatistikami a GPU-Z mám pustené vždy pri každej hre, aby som mal prehľad o vyžívaní zdrojov, takže to mám tiež z vlastnýc h skúseností. Sem tam sa stane, že hra by vedela využiť aj viac ako 8GB VRAM, ale nestalo sa mi, že by to malo nejak zvlášť negatívny dopad na výkon alebo že by rovno hra kvôli tomu spadla.
              Okrem toho viac ako 8GB VRAM má dnes minimum hráčov (oproti celku). Vývojári s tým musia počítať a silne pochybujem, že sa toto zmení v najbližších 2 alebo 3 rokoch.

            • Řekl bych že většina grafik zdaleka nemá 8GB, ba ani těch 6, spíše 4 či méně. Přecijen starých karet, které výkonem ještě stačí na méně náročné hraní nebo jednoduše lowend karty s 2-4GB tvoří největší podíl.

              Zajímavé je že dnes AMD fanoušci tvrdí že 6GB je málo i na FHD, ale když vyšla RX480 tak všichni chválili do nebe 4GB levnější verzi s tím že 8GB potřeba není …

            • Samozrejme malo byt <=8GB, ale cely komentar sa mi rozbil a chybaju tam aj casti viet.

    • GeForce GTX 1080 Ti – March 10, 2017

      áno, AMD potrebovalo na výkon 1080Ti +2roky (bez mesiaca) oproti nVidii, oveľa lepších 7nm výroby a HBM k tomu, z toho hľadiska to zázrak vážne nie je a áno, dalo by sa povedať fail. Ale čo, je to proste tak.

      Každopádne, samotná karta verím zlá nebude a rozhodne by som ju nenazval FAIL-om ?
      Veď prečo aj, bude mať výkon +/- RTX2080/1080Ti, podobnú cenu, áno vyššiu spotrebu ale aj parádnych 16GB pamäte.

      Ako tvoj názor, ale podľa mňa fail vyzerá inak…

        • taky bych čekal od toho procesu víc, na druhou stranu, své kupce si to jistě najde, mě by lákalo 16GB VRAM, pro letecké simy, ale zároveň bych chtěl výkon na 4k a RTX2080Ti jsem si nekoupil protože mě nakonec nepřesvědčila výkonem, vzhledem ke své ceně, buď by musela být silnější nebo levnější.

          • komplik 5.2.2019 at 12:47
            pokud to bylo na mne, tak já to failem nenazývám, dle mě je to karta která nevyužívá potentiálu, který díky nižšímu výrobnímu procesu a přenosové rychlosti pamětí má.

            • Jenže ona jej nevyužívá kvůli tomu, že by mohla, ta architektura na to prostě nemá. Problém je v návrhu.

            • Hele mě je naprosto u zadele proč to má výkon jaký to má, nebo proč to nemá výkon jaký bych čekal že to může mít.

              Jediné co je pro mě relevantní je to že bych čekal od 7nm a potažmo HBM2 výrazně lepší spotřebu než konkurence se žravějšími paměťmi a větším výrobním procesem (ano tady ještě nevíme přesně, ale tušíme) a s ohledem na to i vyšší výkon.

              Třeba ale za můj názor mohou jen novináři co 7nm a HBM2 hypují 🙂

            • AMD mohlo znizit spotrebu alebo zvysit frekvencie vdaka 7nm procesu. Potrebovali navysit vykon cipu, tak museli zvysit frekvenciu cipu, lebo GCN je asi limitovane na 64CU max.
              Ak by ponechali takty ako ma Vega64, tak by TDP nebolo 300W ale dajme tomu 200W.
              Vyhoda HBM2 je v tom, ze ma nizsiu spotrebu ako GDDR6 a radic zabera menej miesta na cipe, ale to je asi vsetko.

        • Nechápu. Nerozumím tomu, co jsi čekal od die shrinku, kromě snad opravy toho, co v původním designu nefungovalo?

          AMD vzalo starou Vegu, udělalo shrink a maximálně opravilo pár zjevných a snadno opravitelných chyb. Čekáš, že se změní zásadním způsobem účinnost na takt, nebo příkon? Těch AMD inzerovaných cca 30% výkonu nahoru je v tomto ohledu docela slušný skok, ovšem velmi pravděpodobně ve značné míře zajištěný pouhým růstem dosahovaných frekvencí.

          • Mě je jedno co s tím kdo dělal, výkon navíc to má, dokonce na ceně to vyrostlo ještě víc než ten výkon.

            Tak jak tak, výrobní technologie to má, dle některých českých autorů naprosto prvotřídní a znamená to že je to prostě the best, tak bych čekal i the best výkon a provozní podmínky, což se bohužel nestalo. Takže mám pocit že potenciál technologie při výrobě je nevyužítý

            • Tych 16GB HBM2 sa na cene prejavit muselo a 7nm tiez nie je najlacnejsie. Ak by bola ta karta len s 8GB, tak si myslim, ze o $100 mohla byt lacnejsia.

              7nm je zatial najlepsi vyrobny proces, ale ten ti zo zastaralej architektury, ktora ma svoje limity nevie urobit prvotriednu.
              Ak sa im podarilo zvysit vykon o 25-30% len vdaka pouzitiu 7nm, tak z mojho pohladu bol potencial 7nm vyuzity celkom dobre.

            • No samo že AMD platí ranec za paměti, problém je že s 8GB už by museli ten čip předělat. Jenže zákazníkovi “coby, kdyby” nepomůže

              Ony se předně zvýšily takty, které jsou primárním zdrojem toho výkonu navíc, těch taktů jde ale dosáhnout i na větším výrobním procesu, NV má tyhle takty už přes 2.5 roku.

      • no jo, AMD totiž mezitím se snaží konkurovat Intelu a vydalo Ryzen 1xxx a poté 2xxx. Jakýpak procesor vydala nvidia? – Jo počkat, ty zelený tydýti vlastně žádný nevyrábí.
        Už se nemůžu dočkat, až začne grafiky vyrábět i Intel, ten by Huangovi se svými finančními možnostmi těžce mohl pomuchlat tu jeho trapnou koženou bundu 🙂

        • Čo majú CPU, Intel, Huang a jeho kožená bunda spoločné s Radeon VII? Tvoj osobný problém s firmou NVIDIA resp. s nesympatiami voči Huangovi je len tvoj. To s týmto nemá nič spoločné. Ani sny o tom, ako Intel NV v budúcnosti ukáže. 🙂

          Inak otázka aký procesor vydala NVIDIA je ako keby sa niekto iný pýtal akú Tegru vydalo AMD? Alebo aké SoC zariadenia pre AI vydalo AMD? NV tiež nerieši iba grafiky pre hry, ale majú širšie portfólio produktov.

          • Souhlas… beru to tak, ze nektery red fans se uz tak nejak jen chytaji stebla, aby se v tom uplne neutopili. Nekteri jeste relativne rozumne zminuji jako plus 16 GB VRAM, ty mene rozumni (rozumej tragedi) vycitaji NVIDII, ze nedela CPU 🤣😂

          • Jj, někteří jeDDinci když se mluví o AMD vs. Intel tak vytahují jak je AMD super když konkuruje Intelu, ale když se mluví o AMD vs. Nvidia, tak přeci není možné kvůli financím konkurovat.
            Reálně je ale naprosto běžné, že malé firmy svým jiným pohledem na problematiku často umí udělat daleko lepší věci než velké korporace, které velmi často pro svoji velikost mají klapky na očích ajedou si setrvačností svým daným směrem.
            A tento fanatik může být ve finále rád, že ta Nvidia hlavně kvůli patentům nedělá ty procesory.

            • “Reálně je ale naprosto běžné, že malé firmy svým jiným pohledem na problematiku často umí udělat daleko lepší věci ..”
              ..uvaha sice dobra, nicmene dost chybna v danem kontextu. Nemas tam 2 podstatne promenne, bez ktere je ta veta nepravdiva. Prvni je situace trhu, kdy je obrovsky rozdil mezi trhem, ktery je na svem zacatku a trhem ovladanym monopolem/duopolem. Stim se samozrejme pak uzce poji i ta druha promenna a to je kapital.

            • Měl by sis přečíst znova první mou větu. K té se to celé vztahuje. Udělat výborný výrobek často není vůbec o penězích. AMD prostě ty výborné grafiky už dlouho nemá. Brečení že na to nemá peníze je pouhopouhý alibismus. Nic jiného.
              To jestli z toho pak dokáže firma vytřískat kapitál je úplně jiná věc. To je třeba případ AMD v oblasti CPU.

            • “AMD prostě ty výborné grafiky už dlouho nemá”
              .. s tim souhlasim, nicmene porad potrebujes dostatene velky budget, aby jsi mohl uvest byt jen prumerny produkt. Pokud jsi nekdy byl soucasti nejakeho projektu, kteremu napr. dalsi mensi budget, nez pozadoval, tak musis vedet o cem mluvim. Vysledny produkt, pokud vubec bude funkcni, tak je vetsinou plny kompromisu, ktere samozrejme maji svoje dusledky. A to se bavim jen o SW branzi. Navrh komplikovaneho HW, jako je grafika, je mimo moji rozlisovaci schopnost.
              Jestli je nedostatek penez “dlouhodoby alibismus” nevim, nicmene je to urcite jedna z nutnych podminek (krome odpovidajiciho know how) pro uvedeni usepesneho produktu.

            • Ne, prostě hromada peněz prostě není automaticky zárukou úspěchu. To platí v oblasti, kde je prakticky jen a jen nějaká předem daná práce a čím víc lidí zaplatím, tím ty práce udělají více.
              Oblast grafických karet je IMHO pořád ještě o nápadech jak co udělat efektivněji, lépe.
              Stejně tak jako tisíce malých firem které přijdou s něčím zajímavým, převratným a v čemž jsou špička a jejichž rozpočet je mnohdy minimální. Takové firmy jsou bohužel následně koupeny těmi velkými neefektivními korporacemi.

            • Ano, ale ty pohledy se nevylucuji, nybrz doplnuji. Dneska, i kdyz budes mit sebeinovativnejsi firmu, ktera prijde s vylepseni efektivity/vykonu grafik rekneme o 50% na stavajicim procesu, tak se bez toho, aniz by ji vzal pod kridlo (koupil) jeden z hracu (Intel, AMD, NV) stejne nema sanci prosadit. Uz to nejde. Trh je rozdeleny, dokud nenastane nejaky zlom, ktery ten smer kompletne zmeni.
              U NV to vypada, ze ma jak zdroje, tak know how (samzorejme i marketing), kterym je schopna urcovat vyvoj celeho segmentu. Je otazkou, jestli AMD vubec jeste ma na to, aby se ji podarilo neco takoveho, jako v pripade Ryzenu. Je mozne, ze tenhle navrat se uz nestane, protoze AMD na to nema.
              Co ji momentalne na PC hrani achranuje jsou jednak ceny a hlavne konzole.
              Uvidime 2020..

            • Jo souhlas, v tomto konkretním oboru se někdo nový nemá moc šancí prosadit.

            • Jeste jinak.. podivej se na architekturu Ryzenu.. tady vidis celkem zretelne, ze byla delana s cilem vysoke efektivity celkovych nakladu. Nastesti se jim to povedlo i vykonove, ale navrh Ryzenu je kompromisni se slabsimi misty, prave kvuli tomu, aby ho byli schopni vubec vyrabet. Neco co Intel nemusi moc resit (zatim)..jede si svoje monolity a je vysmaty, protoze s jeho kapitalem nejsou vstupni naklady tak kriticke, jako u AMD.

        • Jak souvisí Ryzeny s Radeonem? Radeon má osazený Ryzen nebo co? Jak souvisí Intel grafika s Radeonem?

          Bavíme se zklamání z toho co Vega60 dokáže, vzhledem k tomu že má papírové předpoklady dotáhnout to o hodně dále, s tím Intel, ani Ryzen nesouvisí, stejně tak s tím nijak nesouvísí že NVIDIA nedělá CPU.

          Pokud chcete argumetnovat tím že AMD musí bojovat s konkurencí na více trzích a štěpit své zdroje, ano, souhlasím. Ale co s tím já, jako potenciální zákazník mám dělat? Já chci nejlepší produkt za své peníze a ten mi AMD nechce dodat, Proto bych kupoval NVIDIA kartu, proto bych kupoval Intel procesor. Ani v jednom totiž AMD neumí uspokojit mé požadavky tak dobře jako konkurence, byť RVII má největší šanci mě oslovit díky 16GB paměti, ale trpí nedostatkem výkonu

    • Napsal jsem:

      “Tohle je pouhá vycpávka pro období, než uvedou novou řadu karet. V2 je sice zajímavý počin, ale je vidět, že jen opravili/upravili starou V1 a shrinkli ji na 7nm.
      S ohledem na cenu, výbavu apod. si myslím, že tu kartu ani moc prodávat nechtějí, a chtějí mít jen marketingový argument, že prodávají hiend.”

      Dále jsem zmínil, co na té kartě považuju za zajímavé:
      “nvidia má nějakou 7nm kartu?
      nvidia nabízí herní kartu s HBM?
      přináší shrink běžně 30% výkonu navíc?”

      Jinak celá diskuse je zde (včetně urážek goga, maudita, aj.): https://www.cnews.cz/amd-radeon-vii-dalsi-detaily-dvojita-presnost-fp64-pcie40-nereferenci-karty-tdp#comments
      Z ní jasně plyne, že jsem nic o zajímavé kartě nepsal (počin není totéž co karta).

      Nevím nic o tom, že bych psal něco na téma předjímání. Napsal jsem, že tato cenová skupina je mimo mého zájmu, a tudíž je pro mě nezajímavá (a Crhům a podobným mamlasům rovnou sděluji, že má ochota utrácet či neutrácet nesouvisí s výší mých úspor a volných prostředků). Stále si myslím, že AMD jen prodává čipy, které nemá možnost dát do profi karet, a tím tak snižuje náklady na výrobu a zároveň má tak možnost říct, že prodává herní hiend. Naopak si nemyslím, že z leaknutých výsledků se dá říct, zda to je či není fail.

      • Tynyte, ted jsi mel jedinecnou sanci rict, ze jsi od te karty ocekaval vic a ze je to pro Tebe zklamani, ktere nebude mit vyuziti ani na hry ani v profi sektoru… proste zravej kockopes co (mozna zatim) nevyuzil potencial 7nm… misto toho balancujes nad tim, ze “zajimavy pocin” vlastne neni “zajimava karta” a ze vlastne Lisa udelala genialni marketingovy tah tim, ze vzala (udajne) zmetkove cipy, sla se s nima chlubit na verejnost a defacto tak udelat premieru a povest prvni 7nm GPU. Opravdu bys novou genearci uvedl takto? Zmetkovyma cipama? A pak bys je rozesilal do redakci i s darkama okolo, kdybys nechtel udelat dojem? A o to prave jde, ta karta na nikoho dojem udelat nemohla, protoze se nepovedla. Kdyby vysla 2 roky zpet, rekl bych ok, ale stejne bych koupil 1080 nebo 1080ti. Ale dnes? Skoda slov…

        • vidím to podobně jako dragonie:
          “nvidie nemá 7nm kartu
          nvidie nepoužívá HBM paměťi
          nvidie nepotřebuje 30% shrink”
          ________________________________
          Protože stejně se stávajícími prostředky tuhle RV7 rozdrtí ( včetně příkonu ) .

        • O Bože, do čeho jsi to duši dal?
          Pokud jsi nepochopil co jsem napsal, stačilo se zeptat, namísto rozvíjení podivných teorií. A jak vidím, už jen to, že jsem prozřetelně dopředu jasně vysvětlil, že počin není karta, bylo více než moudré.

          Napíšu to ještě jednou, snad srozumitelněji (pokusím se používat jednoduché, krátké věty):
          1. Radeon VII není nový.
          2. Radeon VII je 7nm shrink. (zajímavá věc (počin), jedná se o první velký 7nm čip v prodeji pro běžné spotřebitele)
          3. Radeon VII je komplement (doplněk) profesionálních produktů. Zřejmě jsou na něj použity čipy, které nejsou použity v profi grafikách.
          4. Ty si myslíš, že se jedná o neprodejné čipy po MI50/60, které nikdo nechce, já si myslím, že jde o čipy, jejichž vlastnosti nesplňují interní normy pro profi karty.

          K tvé otázce: AMD si novou výrobní technologii ověřovalo historicky právě takto, tedy prostým shrinkem s minimálními změnami.
          “Dojem” mohla udělat i nvidia – zřejmě tak ale neučinila, ale použila pro RTX stávající 12nm proces. Apropos, testy už jsou venku, že se bavíme o dojmech?

          A dále si myslím, že uživatelé, kteří přehlížejí vyšší spotřebu Intelu vůči AMD, mohou s klidným srdcem přehlédnout i vyšší spotřebu AMD vůči nvidii, tím spíše, pokud pro AMD mají SW, který ji využije (např. střih videa). takže nevím, proč bych měl naslepo tvrdit, že ta karta nemá využití na hraní ani v profi sektoru?

          • Ach jo, pises o tom krasne, ale tak nejak prazdne. V marketingu se tomu rika damage control… Reknu to taky jednoduse, svymi slovy… Pro drtivou vetsinu zakazniku je R7 nova karta, od ktere ocekavali, ze i diky 7nm bude konecne odpovedi na highend NVIDIE, obzvlast po predchozim VEGA failu. Nezajima je, jestli je to SHRINK nebo neni. Vytvari to pro ne PRVNI dojem ze 7nm grafik AMD a ten se IMHO nepovedl… vic k tomu nemam co.

            • Takovou optikou je ovšem fail i vydání karet RTX, ne?
              Slibovaný raytracing se nekoná, DLSS nefunguje nikde. Hry co měly vyjít s podporou tu ani po čtvrt roce nejsou.

              Ach jo?

              BTW, já jsem se jen snažil uvést na pravou míru tvé posunování mých výroků směrem, kterým jsem je nezamýšlel, a který se mi nelíbí.

            • RTX není na 7nm a všichni víme že to je nástřel. A nemá cenu jakkoliv Vegu bránit, protože až tu prdne další generaci nVidia tak se teprve složíš k zemi.

            • Už jsem to tady psal, já od RTX dostal přesně to, co jsem očekával a chtěl, obzvláště od 2080Ti. Tzn. skvělé provozní vlastnosti a vysoký výkon. DLSS a RT mě vůbec, ale vůbec v této generaci nezajímají. Nebýt totálně nesmyslné ceny, už by byla doma. Zcela očividně jsou naše optiky na to co je fail zcela rozdílné.

              BTW. Tvé výroky jsem interpretoval tak, jak jsem je pochopil. Pokud jsi je zamýšlel jinak, tak sorry. Z psaného textu to může leckdy vyznít jinak… občas to u Tebe například vyznívá dost do červena, a to jakože za každou cenu… dnešní diskuze budiž toho důkazem. Vydat tohle NVIDIA, ukamenuješ ji a Tombo Ti k tomu bude pouštět We are the champions…

            • “Tombo Ti k tomu bude pouštět We are the champions…” 😀 😀 😀 dneska pobavils 😀 😀 😀 +1

            • dragonie: já jsem se neptal na to, co jsi chtěl či nechtěl. Ověřoval jsem si tvou logiku hodnocení tzv. “prvního dojmu.”

              A zcela nepřekvapivě jsi pohořel.

              Ad BTW: že ti mé výroky vyznívají do červena, to je zcela pochopitelné. Když vylezeš ze studené vody, tak ti taky vlažná voda bude připadat horká.

      • Není 7nm jako 7nm , u AMD jde hlavně o marketingový nástroj všem bez významnějšího výkonnostního dopadu na zařízení.
        Ano, mohou na krabici napsat 7nm, ale jinak je jim to úplně k ničemu.

            • Mám to chápat, tak, že tvrdíš, že Vega56/64 není vyráběna na 14nm a Radeon VII není na 7nm?

            • Ne, jen je úsměvné házení nm a jejich dopad na výkon od někoho, kdo ani neví jaká byla první 12 nm grafikaod Nvidia.

            • S ohledem na to, že 12nm se vyrábí prakticky stejným procesem jako 14nm a 16nm, proč bych to měl nosit v hlavě? Stejně tak si nebudu za rok pamatovat, jakým procesem byla vyráběna V64. Na tohle je dneska wiki.

              A jak tohle všechno souvisí s tím, že tu obhajuješ toho trolíka Old asse a jeho lež?

            • Já někde obhajuji oldasse (ta mezera je tam určitě čistě náhodná zě)?

            • Ale samozřejmě že jej obhajuješ a bojuješ za něj, proč bys jinak do diskuse vstupoval, že?
              Překlep se prostě stane…

            • Jasně ty překlepe. Reagoval jsem jen a jen na tebe ty odborníku.

          • Vzhledem k tomu, ze hustota transistoru se zvetsila mezi 14nm a 7nm ~4x, tak ten vykonnostni posun je opravdu mizerny (alespon ten prezentovany primo AMD). Schopnost vytahnout vyssi takty muze byt klidne z vetsi casti obecnymi rozdily mezi procesy GloFo and TSMC, nez primo 14nm->7nm prechodem. To v AMD zcela jiste vedi moc dobre, ale my se o tom muzeme jen dohadovat. Pochybuju, ze takovou informaci oficialne nekdy vypusti (muzu se plest).

      • Proč by měla Nvidia potřebovat 7 nm grafiku? Proč HBM? Vždyť si vystačí s tím co používají a konkurence je ne a ne překonat. Tak proč?
        Mimochodem, Nvidia samozřejmě čeká až jim AMD u výrobce vyladí 7 nm výrobu.

        A kdepak jsou ty oberžblebty o tom jak 7 nm proces automaticky přinese kvantum výkonu navíc, daleko menší spotřebu. Realita?

            • Máš pravdu, první auto pana Benze bylo pomalejší než kůň.
              Ale prozraď mi, kde dneska nakupuješ obrok pro svého oře?

            • @tynyt:

              “Máš pravdu, první auto pana Benze bylo pomalejší než kůň.
              Ale prozraď mi, kde dneska nakupuješ obrok pro svého oře?”

              A teraz povedz na základe čoho teda kritizuješ aktuálnu podporu RT v RTX, keď ti v tomto prípade nevadí, že je GPU na 7nm prevádzkovo na tom horšie ako výkonovo porovnateľná GPU na 12nm, ktorá má ešte k tomu citeľne väčší GPU čip? Hlavne, že je to prvá GPU na 7nm. Prečo je potom problém u prvých grafík s podporou RT len preto, že sa v prvých generáciách bude používať iba na čiastočné fíčury? Či v tomto prípade chceme mať hneď auto rýchlejšie a lepšie ako ten kôň?

            • mareknr: mám ten dojem, že jsem ti to už několikrát vysvětloval. Nemám problém se samotnou technologií (teda kromě fakt amatérského uvedení, ale to je problém nvidie, ne můj), ale s tím, že ji vydávají za něco, čím není.

              Když už jsme u těch koní: když na koně navěsíš blinkry a světla, tím z něj ještě auto neuděláš. Ale když jej pojmenuješ třeba hippomobil, tak s tím problém mít nebudu.

            • tynyt: Vysvetľoval si to, že ti vadí, že sa RT nepoužíva na celú scénu ale iba na niektoré fíčury. To chápem. To, čo mi nie je jasné, je že prečo sa na tio pozeráš úplne inak ako teraz na 7nm Radeon VII.
              Každopádne RTX grafiky podporu RT majú a je možné cez pomocou nej renderovať kompletne celú scénu v RT. Ako PoC viď už spomínaný Quake 2. Takže nie je prečo to volať inak. Aj Microsoft podporu vo svojom API volá DXR a teda DirectX Raytracing. Taktiež sa nikde neprezentuje, že by sa dnes v hrách cez RT renderovala celá scéna. Vždy sa hovorí o tom, ktoré fíčury (odlesky, tiene,…) dané RT využívajú a aj sa celý tento spôsobb renderovania volá hybridný rendering a nie rendering pomocou raytracingu.

          • Ta analogie je spatna, protoze HBM neni lepsi technologie, nez GDDR6. Je jina a ma jine priority. HBM ma vetsi sirku, ale obecne pracuje na nizsich efektivnich frekvencich, zatimco GDDR6 naopak ma mensi sirku, ale pracuje na vyssich efektivnich frekvencich. To mimo jine znamena (alespon tak jak to na zaklade dostupnych informaci chapu) mensi latence v pripade GDDR6 pro mensi bloky dat. To ale muze byt dost vyznamna vec, pokud je cela architektura na mensi bloky dat navrzena (hint: tile-based rendering), protoze pak ty mensi bloky muzou byt on-demand dotahovany do lokalni cache rychleji, za mene cyklu, nez v pripade HMB. U HMB k dosazeny rozumnych latenci bude nejspis nutne zarovnavat praci precizne tak, aby si o vetsi data rikali klienti soucasne ( a to neni zadarmo).

            Tyhlety uvahy o “uber HBM”, co tu rozsiruje hlavne Soucek (a Stach s Olsanem ochotne papouskuji, kdyz tu technologii primarne tlaci AMD), jsou dost jalovy. Jedna se o dve rozdilny technologie, kde kazda je vhodna pro jiny pristup, ale neda se objektivne rict, co je lepsi.

            A pak je tu samozrejme cena a komplikovanejsi osazeni HBM.

      • Tak tak, lidi neřeší cost of carry, tedy cenu za vlastnictví, v tomto případě provoz té karty, případně že mohl ty peníze dát jinam a to mu přineslo větší zisk (ziskem rozumějme třeba více zábavy), Rozdíl mezi 2080 asi nebude tak velký, počítám že v horším případě to bude kolem 80W, nicméně 80W je pořád dost . Pokud to poběží ve výkonu 5 hodin denně, tak se bavíme asi o 7 stech za rok na elektřině navíc, pokud to má sloužit někomu 5 let (přece 16GB VRAM = dlouhá životnost) tak celkový rozdíl je 3.5 tisíce.

        Pak bude dobré odhadnout zůstatkovou cenu těch karet, resp prodejní cenu staré karty ale kdo by kupoval 5 let starou kartu, že.

        • @oldass & komplik a spol.
          Vy nevíte, že kdo chce výkonnou grafiku, tak má i na silný zdroj a kvalitní skříň s dobrým airflow???
          To ví přeci každý hráč už od do Fermi.
          😉

          Aneb jak se spousta lidí nechává ovlivnit marketingem. Jednou byl výkon nadevše (Fermi) a vzápětí byla na prvním místě spotřeba (Kepler a novější).

            • Hlavne Nvidia GPU ted maji lepsi vykon A ZAROVEN lepsi efektivitu 😉 Tak proc tam pise to bud a nebo .. 😀

          • pokud můžu mít stejný výkon s menší spotřebou, proč bych bral to samé se spotřebou vyšší? Pokud Radeon VII bude výkonem na úrovni 2080 a spotřebou na úrovni Vega64, navíc nemá RTX a DLSS, tak jasně prohrává bitvu o pozornost 16GB zní cool a pro minoritu to bude také důvod ke koupi té karty, ale pro většinu lidí to nebude mít význam a až to začne mít význam tak zas ta karta nebude mít výkon.

            • RTX 2080
              + lepší spotřeba
              + hybridní raytracing
              +- DLSS
              -8 GB VRAM

              Radeon VII
              – horší spotřeba
              + 16GB VRAM

              DLSS rozmazává textury, takže nic pro fanoušky nVidie, kteří preferují “kvalitu” zobrazení. Proto si přece pořídili RTX, který odrazy nenapodobuje jako rasterizace, ale počítá je hybridním raytracingem, pro ně je jákekoliv rozmazání textur zcela nepřípustné. 🙂
              Za dva roky si, ale ani ten hybridní raytracing nezapneš protože budeš potřebovat více FPS, abys vůbec nové hry rozchodil a nebyla to slideshow.
              Takže pojedeš hry s vypnutým RTX a tedy stejně (jenom rasterizace) jako u toho Radeonu.
              Ale budeš mít problém spustit hru s více detaily, protože 8GB VRAM je v některých hrách často limitní s určitými nastaveními už dnes. Proto 8GB vs 16GB může znamenat zcela nehratelné vs hratelné se sníženými detaily.

              Summa summarum – dle mého RTX 2080 zastará mnohem rychleji než Radeon VII.

            • “DLSS rozmazává textury” Ale prd. Youtube rozmazava textury pri kompresi videa. JPEG rozmazava pri kompresi obrazku.

              Najdi si recenzi s nekomprimovanym vystupem. A jasne, ze se najdou pripady, kdy DLSS nezvladne vystup dokonale, ale prevazujou ty pozitivni. Vetsina recenzi se shoduje na ostrejsim a lepsim obraze u DLSS vs TAA, zvlast v pohybu.

            • Ano, DLSS je rozhodně lepší než TAA, ale také to nepopírá co tvrdím.
              Např. Final Fatasy má hodně špatnou implementaci TAA.
              viz článek na Techspot
              https://www.techspot.com/article/1712-nvidia-dlss/
              Final Fantasy XV is a particularly poor comparison because its stock standard anti-aliasing, TAA, is a rubbish implementation of that technology, which blurs the otherwise sharp, clear imagery you normally get with native 4K.

              I ty sám jsi musel pžiznat, že:
              “A jasne, ze se najdou pripady, kdy DLSS nezvladne vystup dokonale”

            • jasně, takže když je špatně naprogramovaná hra může za to nVidia s DLSS, no VÝBORNĚ.

            • Já jsem nebyl ten, kdo v tomto vlákně vytáhl DLSS vs TAA. Jen jsem upozornil, že srovnání kvality DLSS vs TAA v Final Fantasy se dělá snadno, když je tam TAA tak špatně implementováno.

              Pokud vím tak Final Fantasy XV je zatím jediná hra (Infiltrator je pouze demo) co má možnost zapnout DLSS a podporu do hry dodělávali ve spolupráci se samotnou nVidií.

  4. Umí Nvidia GPU stejně dobře spolupracovat s Free Sync monitory jasko AMD GPU ? Je funkce free sync stejně funkční nebo nefunkční nezávisle na použité GPU (AMD versus Nvidia) ? Předpokládám, pokud by tomu zatím tak nebylo, že Nvidia postupně doladí ovladač a bude tomu tak. Tím Vega VII ztrácí body… Nvidia dobře věděla co se u konkurence chystá a naučila se Free Sync a vydala 2080Ti spolu s 2080.
    Chtěl bych si koupit 7nm GPU, a líbí se mi 16GB paměti, ale zatím vyčkávám.