CrossFire na Radeonech to má asi nahnuté, AMD říká, že se na něj „už nebude soustředit“

84

Když vyšly minulý měsíc Radeony RX 5700 generace Navi (s novou architekturou RDNA), objevila se v recenzích jedna věc, která možný leckde zapadla. Navi – nebo alespoň zatím vydané grafiky této generace – vůbec nepodporují CrossFire. To už u AMD dlouho nepotřebuje žádné konektory a můstky, ale u Navi zřejmě podpora prostě nebyla implementována. A vypadá to, že věci možná jinak nebudou ani v případných výkonnějších highendových Radeonech s touto novou architekturou, které jsou údajně v přípravě.

Šéfka AMD Lisa Su se účastnila tento měsíc konference Hot Chips, kde firma prezentovala vedle Zenu 2 také architekturu Navi. Přitom padla otázka na budoucnost CrossFire a odpověď asi více méně dokládá, že tato technologie už asi není na pořadu dnes a podporu už asi v budoucnu čekat nemusíme. Odpověď sice nebyla nijak přímá v tomto směru, ale mezi řádky to tak skutečně vypadá. Přeloženo: „Popravdě, software jde dopředu rychleji než hardware, řekněme že CrossFire není významnou prioritou“.

To be honest, the software is going faster than the hardware, I would say that CrossFire isn’t a significant focus.

Ačkoliv toto nezní nějak fatálně, je třeba mít na paměti, že lidé ve vedení firmy v takovýchto situacích často používají dost silné eufemismy. Pokud by s CrossFire byly nějaké další plány, ať už třeba jeho zpětné zprovoznění na Navi, nebo spíš jeho podpora na jiném highendovějším GPU, řekla by CEO spíše něco ve stylu „CrossFire neopouštíme, v budoucnu o něm od nás uslyšíte“. Když takovéto, byť stále nekonkrétní ujištění nepřišlo, pravděpodobně se tím potichu přiznává, že už se s technologií moc nepočítá.

AMD Radeon Navi RX 5700 prezentace 01

Zbude asi jen Explicit Multiadapter v DirectX/Vulkanu

Není to asi překvapivé, neboť Multi-GPU ve stylu CrossFire již bylo na ústupu předtím. Metoda spřažení dvou grafik, kdy rozdělení práce probíhá uvnitř vrstvy ovladačů a hra ho nemusí řešit, v posledních letech v řadě her vůbec nefungovala (což asi také přispělo k zániku dvojčipových grafik, jaké předtím ATi a AMD pravidelně produkovaly, a s o něco menší četností i Nvidia). Místo toho je propagována metoda nazvaná Explicit Multiadapter, jež je možná v nízkoúrovňových API jako je DirectX 12. V tomto případě se o rozložení práce stará samotná hra či její engine, která přímo vidí a řídí všechna spřažená GPU, místo toho, aby toto řešily ovladače. Tento explicitní Multi-Adapter AMD na Radeonech dál podporuje, ale jeho implementace je vždy na bedrech autorů hry, takže asi nebude tak populární, jako původní ovladačové multi-GPU.

Nvidia zatím SLI, což je název obdobné technologie u grafik GeForce, dále podporuje a aktuální GPU Turing pro něj dokonce používají novou konektivitu NVLink, která je převzatá ze serverových výpočetních akcelerátorů Tesla. Ovšem i u Nvidie se hovoří o určitém útlumu, kdy už před časem byla opuštěna podpora pro SLI víc jak dvou karet. Vypadá to, že řada novinářů/pozorovatelů očekává útlum i zde, takže by podle nich mohla Nvidia SLI také opustit a ponechat jen podporu pro Explicitní Multi-Adapter implementovaný ve hrách. Smysl by to dávalo mimo jiné proto, že tento režim používá menšina zákazníků, ale na straně ovladačů asi vyžaduje poměrně mnoho práce. Ovšem jestli plány tímto směrem opravdu směřují, potvrzeno není a je klidně možné i to, že tu SLI ještě řadu let vydrží.

Galerie: Prezentace GPU architektury RDNA/Navi a Radeonů RX 5700 z E3 2019


CrossFire na Radeonech to má asi nahnuté, AMD říká, že se na něj „už nebude soustředit“
Ohodnoťte tento článek!
5 (100%) 10 hlas/ů

84 KOMENTÁŘE

  1. AMD to ma dobre vymyslene, kto chce jedno GPU kupi si kartu s 1 GPU, kto chce 2 GPU kupi si kartu s 2 GPU, kto chce 4 GPU kupi si kartu so 4 GPU.
    Problem bol v nedostatočnej rychlosti komunikacii medzi GPU kartami, ktoru AMD sa zda už vyriešilo. Už sa len čaka či to AMD uvedie viac čipov NAVI teraz na 7nm procese, alebo až za rok na 7+nm procese.
    Monitori už prišli 4K s 144Hz už len chyba GPU čo to potiahne 🙂

          • co to oba melete za hovadiny, jake pentium4? pokud ma dneska jeden 7nm cip prikon 200W (cela karta vcetne ram 250), kolik bude mit karta se ctyrmi takovymi cipy? 300W? se proberte.
            i epicy zerou jak krava, a to maji velmi nizke takty.

            • hovadiny meleš jen ty. Je jen logické, že potenciální chiplet pro 4xGPU na jednom čipu nebude mít stejnou spotřebu jako 4x diskrétní grafiky

            • nekde tvrdim, ze 4cip karta bude mit spotrebu presne jako 4 diskretni grafiky? neumis cist i pocitat pocitat nebo co? kolik myslis ze z cele karty zerou pameti? pocitano pred kaskadou, pokud ma karta 250W TDP tak ramky si vezmou max. 50, ale spis mene.
              tazke ano, ctyrcip by zacinal na 800W. a to nepocitam, ze takova karta by mela vic pameti, tedy vic pametovych cipu.

    • AMD má vždy všetko ” dobre vymyslené ” a stále sú tí druhí. Na budúci rok vstupuje Intel na trh grafík a plánuje podporu v zmysle SLI, za nejaký čas môžu byť AMD až tí tretí.
      Najvýkonnejšiu desktopovú grafiku má stále nVidia, najvýkonnejší desktopový procesor má stále Intel, taká je realita.

      • U komerční společnosti není podstatné mít nejvýkonnější produkt, ale produkovat zisk. A tady čísla hovoří jasně:
        za Q2 2019 má Intel čistý zisk přes 4 miliardy dolarů, Nvidia přes půl miliardy dolarů, AMD 30 milonů dolarů.
        Takže buď je AMD dobrovolně neziskovou, nebo je prostě horší.

        • Produkty AMD sa kupujú z dôvodu nižšej ceny, oni si jednoducho nemôžu dovolit Intelovské marže, preto nízky zisk. Údajne Intel pracuje s maržou 27%, AMD s 5%.

          Pre komerčnú spoločnosť je propagácia technologickej vyspelosti veľmi dôležitá a nato slúžia vlajkové lode, teda tie najvýkonnejšie produkty, výkladné skrine, takže podstatné to je dost.

            • Ta tvoje horkost z tohodle uzasnyho vladarovo burnu je citit z kazdyho tvyho slova 😀

            • Tak si dáme příklad, třeba konglomerát Agrofert a jeho kvalitní potraviny, alias “éčkové mňamky.”

              Nicméně neočekávám, že to pochopíš, je to totiž složitější, než loga Intel+nvidia.

            • no nevím o čem blábolíš … kde ty éčka nejsou? Každý nemůže vyžírat 8x týdně prepelky z Francie a tuňáky z vlastního chovu … tobě neleží v žaludku Agrofert, Kalousku …

            • asi ne … jak se dá nepochopit věta – kvalitní potraviny Agrofertu, alias “éčkové mňamky”?

            • Gogo: projektuješ si své frustrace. Já jsem měl na mysli to, že Agrofert je poměrně úspěšný a že navzdory nekvalitě prodává hodně, tj. lidi to i tak kupují.

              Tudíž argumentace Apple vydělává, tak musí být kvalitní, není validní.

            • nejde o žádné frustrace, tvůj příměr kulhá na obě nohy … prý “navzdory nekvalitě” … tohle je prostě blábol …

            • tohle není blábol, ale konstatování, že mezi cenou, kvalitou a oblibou neexistuje žádný přímý a zaručený vztah. Existují komodity, kde je zákazník extrémně citlivý na cenu, jinde zase na kvalitu. A existuje i zboží, kde nic z toho neplatí. Typicky se jedná o “statusové” zboží, které se nakupuje proto, že majitel tím říká “já na to mám” a výrobce to šikovnou cenovou politikou podporuje.

              Z vlastní zkušenosti (velké desítky iPhonů a iPadů) můžu říct, že Jablečný HW i SW není nic extra, spíše se jedná o horší průměr.

    • ale však jo, nVidia s SLI taky dlouho nevydrží, evidentně to přináší víc problémů než peněz … možná nějaká okrajová podpora zůstane, možná jen u profi produktů … to samé u Intelu, pokud bude konkurence schopný …

    • Kdeže “začíná”, ty změny turba jsou už od AGESA 1.0.0.3. Ta byla na X470 deskách často později (i když třeba Gigabyte ji měl hodně rychle), ale na těch X570kách by měla být už skoro (úplně?) od začátku.

      Jedna z těch změn je, že maximální turbo je dosažeitelné jen s o něco nižší teplotou. Dřív to bylo do 79 Celsiů, přičemž od 80 výš se automaticky strop zredukoval o 200 MHz, tj. například z 4,6 na 4,4 GHz u Rí 3900X. AGESA 1.0.0.3 to snížila na 74 stupňů, těch -200 MHz je už od 75 Celsiů. Není to ale snížení maximální frekvence, jeno ztížení podmínek, za kterých se dá dosáhnout.

      Můžou tam být další změny, ale detailně se zatím ví jenom o téhle (zdroj: The Stilt). To fungování řídí firmware jednotky SMU, který je součástí BIOSů.

    • Ale je těch 75 stupňů při jednom vlákně (kde se dá aspirovat na to max. turbo), nebo při všech? Když už je vytížené celé CPU, tak je limit příkon (PTT) a že je maximální frekvence boostu už jenom 4400 MHz, to už tomu může být úplně jedno, protože bez překročení PTT si to k ní ani nečuchne.

      • Je to max. boost jedného jadra, pretože pri 4.6GHz all core u 3900X by to pri 1.5V neuchladil ani Chuck Norris.
        Teda, ako píšeš, v prípade 100% záťaže všetkých jadier budú platiť iné obmedzenia, ktoré sa preukážu v reálnom testovaní.

        • Podle vás ten procesor má 75 stupňů při jednovláknové zátěži (nebo jste mě špatně pochopil)?

          Jako já ho nemám, ale vy IIRC taky ne.
          A třeba techPowerUp má namátkou 79 stupňů v Blenderu (což by mělo být blízko maximální spotřebě nebo na maximu, a bude to nejspíš 100% přes 12c/24t, protože rendering). Takže 74C na jendom jádru se mi nezdá, tam už by neměl být ten malý křemík takový bottleneck chlazení.

        • Mvladar..Tech 75C je pri vytizeni celeho CPU, ne pri vytizeni jednoho jadra.. Jak muze nekdo chodit na technicky web a psat jeden nesmysl za druhym dokolecka..
          Drive na weby chodili lidi, co si vymenovali technicke informace, dneska tady chodi BFU v roli fotbalovych fanusku, kteri patrne v zivote nemaji co delat..

          • @tombo, je vidieť, že sa v problematike neorientuješ. V jednojadrovej, respektive málojadrovej záťaži je dôležitá teplota jadra v záťaži, teplota puzdra procesora je ti úplne na figu. Stiahni si CoreTemp, alebo Aida64, boostni jedno jadro na max. a porovnaj teploty procesora s teplotou jadra, to uvidíš veci….

            • Budulinku, Hwmonitor pozuivam nekolik let. Teplota jednoho jadra je ti na figu (po slovensky), protoze te zajima, kdy to CPU zacne throttlovat. CPU Package treba na mojem 8550U je reportovany jako teplota nejteplejsiho jadra a pri jednom bezicim max. threadu skace nahoru a dolu neustale. Nikde se konstatntne nedrzi a pro tovou informaci ma az 92C. Takze fakt nevim, co bych mel videt…ale treba mne konecne jednou v necem poucis a nebude to vylozena kravina co placnes…
              Tvoje FUDY o degradaci materialu, ktere konspirativne siris, mas tak akorat ve sve BFU hlave.

            • Vladar..tak mne konecne pouc. Cekam co mam videt a jak se neorientuji..
              Cekam, kdy vytahnes, ze AMD nedoahauje maximalni boost :))

          • @tombo, žiadaš o poučenie, tak prosím :
            Tvoj 8550U prepína jadrá, managment rozhadzuje záťaž v single móde cyklicky na jednotlivé jadrá. To, že ti reportuje teplotu najteplejšieho jadra je naprosto správne a je to presne prípad, ktorý zdôrazňujem. Jadrová teplota má prioritu, pretože teplota puzdra procesora v málojadrovej záťaži bude nižšia, pokial bude meraná selektívne od teploty jadra.
            Diametrálne odlišný je prípad, keď sa vybere najlepšie jadro, napere sa Vcore 1.5V a hurá, mám v R15 +200b.
            Už chápeš ?

            • Nikoliv ty Madare, protoze tvoje FUDY jsou chybne od zacatku. U AMD boostuje jedno jadro na max. boost, je to jejich technologie, kterou pouzivaji. Jakou to ma spojitost se “spatnou” teplotou jednoho jadra, ktere je reportovane jako Package, jsi stale nevysvetlil, Ani nemuzes, protoze fabulujes. Ten boost u AMD je definovany tak, ze minimalne jedno jadro jej dosahuje. Cili v teorii, to mohou byt klidne i vsechny. I kdy by to bylo proklamovane jedno, porad neni jasne, proc by to mel byt problem, ktery stale nekde vytvaris. Reportovana teplota package CPU je ti naprd, pokud to nezkombinujes s aktualnim spotrebou toho chipu, ktere to vytizeni zpusobuje. Pokud ti reportuje 75C, ale TDP je nekde na strelim na 50W tak co jako ma byt podle tebe spatne?
              Konecne zkus nekde vysvetlit a dolozit co je na teplote 75C spatne, co je spatne na tom, ze CPU boostuje max na jednom jadre?
              Proc se napr nerozhorcujes nad tim, ze teplota Intelovskeho CPU dosahuje 92C?

            • Pokud si dobre pamatuji, byl jsi taky jeden z hlavnich FUDaru o tom, ze AMD nedoshauje max Boost. To uz ti prestalo mezitim vadit vyrobil jsi “teplotni FUD” a nebo jsi prisel konecne na to, ze jsi celou dobu placal jednu nehoraznou kravinu za druhou?

          • “Drive na weby chodili lidi, co si vymenovali technicke informace, dneska tady chodi BFU v roli fotbalovych fanusku, kteri patrne v zivote nemaji co delat..”

            Toto si hovorím pri každej diskusii ohľadom RT. A predtým pri PhysX alebo Gameworks 🙂

            • zase to tolik nehroť. RT je stará vesta, kterou jsem používal už jako student (to bude už přes 20 let), na principu se nezměnilo nic. Stejně tak PhysX, které nvidia zkriplila a uvolnila až když už k ničemu nebylo. No a GWorks, odhlédnu-li od podstaty (což je běžný toolset), sloužilo ke stejnému účelu jako PhysX předtím.

            • Tu predsa nejde o princíp na akom RT funguje. Ale o spôsobe ako ho akcelerovať. Ten sa časom predsa menil podľa dostupných technológií. MS v spolupráci s NV aj AMD pripravil DXR a NV už stihla pripraviť svoju implementáciu pre toto API. Ide aktuálne o najrýchlejší spôsob ako RT akcelerovať, ale tu sa to proste neocení, pretože je pre niektorých ludí nad ich ludské sily za niečo NV pochváliť (radšej sa nasilu hľadajú “argumenty”, na základe ktorých by sa dalo jej riešenie prehlásiť za zbytočné alebo mŕtve). Pretože aktuálne sa aj vďaka NV robí kopec práce, z ktorej budú ťažiť všetci. A aj napriek tomu (hlavne fandovia AMD) riešia stále iba svoju politiku neznášanlivosti voči NV a nedokážu sa ani trochu tešiť, že sa RT začína dostávať do hier a herných engine-ov a že konečne máme štandardizovaný spôsob jeho implementácie. Aj napriek tomu len čítam u tých istých ludí, ktorí to robia pri každej technológii NV, že je to na nič, malo prísť neskôr alebo nikdy (rozumej až vtedy keď to bude mať aj AMD, aby náhodou obľúbená firma nebola pozadu) pretože je RT podľa niektorých blbosť (očividne ani nevedia čo to RT je) alebo že je dokonca implementácia NV pre DXR mŕtva. To je ako tvrdiť, že je implementácia DX11 od NV mŕtva lebo je iná ako tá od AMD.
              Ad PhysX – a tu je ten ďalší problém, že NV nikdy PhysX neskriplila. Je smutné, že sa na technických weboch dočíta človek takéto nezmysly aj po toľkých rokoch. NVIDIA kúpila od AGEIA riešenie v určitom stave – riešenie, ktoré používalo staršie inštrukčné sady a nebolo natívne multithreadové. A kto sa z toho obviňuje? NVIDIA. Klasicky. Pritom NVIDIA celý PhysX postupne prerobila od základov, zefektívnila ho citeľne oproti pôvodnému riešeniu, čo kúpila a ešte aj rozšírila jeho feature set a pripravila jeho akceleráciu pre grafické karty (ktorú opäť časom zefektívnila), čím značne rozšírila základňu, ktoru bolo možné na akceleráciu PhysX použiť. Lenže samozrejme AMD nemalo alternatívu, tak sa muselo vyrojiť kopec nezmyslov, aby to náhodou nevyzeralo, že má NV z niečoho výhodu. Tak vznikli fámy o kriplení PhysXu. Fakt si tu niekto myslí, že NVIDIA zobrala paradne a efektívne riešenie od AGEIA a prekopala ho tak, aby bolo čo najmenej efektívne na CPU? O akom kriplení sa to stále hovorí? Fakt už keď sme na technickom webe bolo by dobré prečítať článok od jedného z tvorcov PhysXu na túto tému a nešíriť bludy len preto, že sa hodia do tézy zlej a všetko ničiacej NVIDIe:

              http://www.codercorner.com/blog/?p=1129

              Gameworks je ako píšeš bežný toolset, ktorý sa používal na pridávanie grafických fíčur do hier. A musím zdôrazniť VOLITEĽNÝCH fíčur. Takže si ho kto chcel mohol vypnúť alebo k nemu ani nemal prístup. A aj napriek tomu, že to neovplyvňovalo konkurenciu, tak sa vyroijilo kopec mýtov o každej hre, ktorá Gameworks používala. Na technických weboch sa človek dočítal na fórach totálne nezmysly. GW “mohol” pomaly za všetky chyby a problémy, ktoré hry mali. Vymýšľali sa doslova hlúpe teórie na každú jednu hru, že čo v nej GW robí zle a to bez ohľadu na to, či vôbec použité moduly z GW mohli dané problémy zapríčiniť. A keď sa nedajbože niečo také aj naozaj stalo (pretože chyby sa pri práci stávajú) tak to bol jasný dôkaz bohviečoho.

              Áno. PhysX, GW aj RT využíva na zvýšenie predajov svojich vlastných kariet. Ale čo je na tom zlé, keď ludia čo majú karty od NV majú možnosť prístupu k niečomu, čo AMD pre svojich zákazníkov neurobí? Ide o volitelné fíčury, ktoré ak sa ti nepáčia môžeš vypnúť alebo ignorovať.

              Fakt je táto kultúra oprskávania a hate-ovania smutná. Ludia sa vôbec nevedia tešiť z nových vecí a riešia len svoje osobné vojny súvisiace s firmami, podľa toho, ktorú majú alebo nemajú radi. Sakra konečne sa dostáva Raytracing do hier a je akurát okolo neho od istej skupiny ludí len samý hate len preto, že ho tlačí NVIDIA a jej konkurencia ešte nemá svoje vlastné riešenie. Pretože skutočné dôvody na ten hate naozaj nie sú.

            • jen telegraficky:
              1. RT: spíše než o akceleraci jde o optimalizaci (ovšem s dopadem na kvalitu). Pro mě je současná podoba RT zbytečná a škodlivá, je to jen další hřebíček do rakvičky zábavných her, protože to jen navýší náklady a znova ořeže počty herních studií.

              2. PhysX, GWorks: že jej majitel bude vyvíjet a udržovat, to bych celkem očekával. Podstatná věc je JAK jej využije. A v případě nvidie tu nejde o technologii nebo standardy, ale v první řadě o dominanci. Nakonec tyto slibné technologie skončí vymačkané jako citron a zapomenuté, nepodporované. Problém to je v okamžiku, kdy si chceš zahrát starou hru, která kdysi “podporovala” tyhle “bonusy.” Chápu, že asi budu minorita, ale tak to prostě vidím já.

              A není to o nvidii jako takové (jak píšeš “hate”), ale o principech. Když AMD udělá podobnou prasárnu, budu to kritizovat taky – jenže ti jedou daleko víc cestou otevřenosti, viz FreeSync.

            • freesync je pekny priklad toho, kdyz nekdo vymysli jakoby standard a vykasle se na nej. necha to na vendorech. vznikaji pak paskvily jako “freesync” monitory 48-60Hz VRR. oproti tomu gsync, kde mas vzdy zaruku plne funkce od 30Hz do maxima monitoru vcetne LFC. tedy presne to nvidii vycitas pasuje naopak na amd, nikoliv na nvidii.

              konkretne k gameworks/physx, nejake odhozeni a nepodporovani je zjevny nesmysl, kdyz mas v Metru Exodus gpgpu physx. Nvidia bude samozrejme physx dal vyvijet, ale pod otevrenym kodem. stejne jako ted otvira svoje architektury a drivery do linuxu.

            • 48-60Hz je pořád lepší než stejný monitor s pevnýma 60 Hz. U takových LCD nebývá za tu funkci žádný příplatek a je to prostě bonus, který se pořád pro míň náročné hraní hodí.
              G-Sync na takové hráče a monitory, které nesjou úplně herní úplně kašle a nabízí jenom 120-144HZ a vyšší LCD, které jsou ale o nějaké nezanedbatelné tisícovky dražší. A proti tomu je jsou FreeSync ekosystému desítky alternativ, pořád za nižší cenu, tak kde je problém?
              Naopak proti tomu bonus freesync u nejlevnějších běžných LCD Nvidia měla* Nvidia jen těch 60Hz napevno. Tohle není nějaká stinná stránka FreeSync, tohle je IMHO stinná stránka ekosystému GeForce.
              *Naštěstí Nvidia vzdala tu exkluzivitu g-sync a teď se dají ty monitory použít i na jejich kartách, protože tohle jim opravdu v ekosystému chybělo. (Ale pro jistotu to obrblávají v PRkách o tom, jak jsou ty FreeSync monitory nekvalitní a lidi by je neměli kupovat – když to trochu přeženu. No, to jsem se zase rozhorlil, pardon.)

            • @tynyt
              1) Ešte pár rokov dozadu ukazoval Intel Raytracing demo, kde už vtedy hovorili o hybridnom renderingu. V tom čase bolo jasné ako to začne. Ja to beriem ako začiatok (prvý) krok k výraznejšiemu zlepšeniu počítačovej grafiky v hrách. Preto mi vôbec takýto postup nevadí. Urobí sa kopec práce, vybuduje ekosystém a RT sa postupne bude používať viac. A že sa bude používať zatiaľ iba ako súčasť určitých fíčur nie je predsa tiež problém. Pre viacero fíčur ako AA, AO či dynamické tiene existuje viacero alternatív, ktoré sa museli postupom času vybudovať a firmy to nezruinovalo. Nevidím žiadny dôvod prečo by to malo orezať počty herných štúdií. Hlavne keď to zapracujú do herných engine-ov.

              2) V pohode. Chápem tvoje výtky ohľadom proprietárnych riešení. Ja osobne s nimi ale problém nemám kým sa budú používať ako nepovinné fíčury, ktoré sa nebudú vynucovať na používanie. Okrem toho čo sa týka PhysX-u, vďaka NV sa dostal do herných engine-ov a používa sa stále v hojnom počte. Len už to nie je GPU@PhysX, ale len CPU (ktorý má ale zasa oveľa širší feature set) a tak sa to marketingovo nepropaguje ako kedysi. Tiež sa PhysX používa aj na rôzne simulácie v profesionálnych nástrojoch (SamanCZ o tom tak rok dozadu písal). Ide o jedno z najlepších riešení na fyziku (minimálne pre hry určite). To, že sa celkovo v hrách nepoužíva lepšia fyzika skôr dávam za vinu nezáujmu vývojárarskych štúdií v tomto smere niečo meniť. Ani s Havokom či predtým Bulletom sa nerobilo v hrách nič extra. Bohužiaľ.

              @hnízdo: Metro Exodus nepoužíva GPU@PhysX. Ide o CPU, ktoré je ale už postavené na SDK 3.x a nie ako prvé Metrá, ktoré využívajú SDK 2.x. Okrem toho dnešné CPU toho zvládnu aj v maisntreame viac ako pred 6 či 7 rokmi. Na tú fyziku, čo používa Metro Exodus očividne stačia.

              ad Freesync vs GSync: Tu máte podľa mňa pravdu všetci a zbytočne niektorí nadávajú alebo podceňujú to druhé riešenie než preferujú oni. GSync má jasne dané vlastnosti, ktoré spĺňajú všetky monitory s danou certifikáciou. Dlhodobo išlo o najlepšie riešenie na trhu v tomto smere, ktorému sa vyrovnalo len veľmi málo Freesync monitorov. Toto by sa ale malo zmeniť s Freesync 2, ktorý by už tiež mal garantovať určité vlastnosti. Freesync monitory ale zasa boli lacnejšie a dostali sa k väčšiemu množstvu ludí. Tu NVIDIA podľa mňa zaváhala a mala doplniť podporu pre Freesync monitory skôr. A vytvoriť ďalšie využitie pre GSync modul, ktorý by jeho existenciu opodstatňoval vzhľadom na cenu.

            • O jakych urazkach mluvis? Ty tady lzes a vymyslis si zleva doprava a nemas ani kousek studu se za ty svoje neustale vymysly ani omluvit. Kdyz ti nekdo slpane trochu na prsty, tak ti hned ublizuje co?
              To ze ti reknu, ze jsi madar neni v tom pripade urazka, ale jeste lichotka.
              ALe chapu, ze nemas co napsat, protoze ze lzi se tezko znovu vylhava co Vladare?
              Jeste jednou
              .. kde je problem s teplotou u AMD CPU?
              ..kde je problem, ze CPU boostuje na jednom jadre?
              ..proc si neztezujes, ze Intelovske CPU ma klidne i teploty nad 90C?
              – Uz ti najednou nevadi, ze vsechna AMD CPU tzv. neboostuji na max boost?
              .. a nebud zbabelec a aspon se snaz misto vyhybek o tom, jak ti nekdo ublizuje, odpovedet.

            • Jinak rikat nekomu ” Problematiku si naštudu”, to uz je ve tvem podani jen cira drzost..

            • “To ze ti reknu, ze jsi madar neni v tom pripade urazka, ale jeste lichotka.”
              To by tu ale fakt bejt nemuselo, ať pak nemusím přemýšlet, jak to v těch postech promazávat…
              Stačilo by říct, že to a to není pravda.

            • Jako OK. Ale to mu mam jako prvnackovy opakovat u kazdeho postu, ze to neni pravda.. si snad nepamatuji, ze tady postoval neco co by mel nejak overene a bylo to dokonce i pravda.

        • Jinak ale tedy, když už se tu tolik teoretizovalo o tom, kolik je teplota v jednovláknové zátěži, kolik máš na něm teplotu pod nějakým ST benchmarkem/zátěží? (Za předpokladu, že to není zrovna pořád teplé z předchozího MT)?

          • Vzdyt je to preci jedno. Pokud vyrobce specifikuje teplotu/napeti/’TDP” ve kterych se to muze pohybovat, tak je to preci jedno. Kazdy vyrobni proces/architektura to bude mit stejne trosku jinak. Jo pokud by v ramci toho, co AMD uvadi, ty cipy zacali hromadne odchazet, tak to by samozrejme bylo uplne neco jineho. Ale tohle se nedozvime stejne do te doby, dokud se to nestane a do te doby se musime spokojit se zarukami, AMD, ze je to v ramci specifikaci.
            Vyrabet tady senzace, bez jakehokoliv hmatatelneho dukazu, neni nic jineho nez fabulace. V pripade Vadara jsou to zamerne sirene FUDy neboli lzi.
            To stejne plati o tom, co tady Vladar a dalsi sirili a boost frekvenci, aby se nakonec ukazalo, ze je to problem desek. AMD v tom asi uplne nevinne neni taky, ale ne tim, ze by ta CPU toho boostu nebyla schopna, ale mozna proto, ze vyrobci BIOSu neemeli dostatek casu na vyadeni do vydani. Ale delat senzace o tom, ze CPU neboostuji, ze AMD zavadi a lze…vzdyt to jsou zase FUDy a lzi, ktere lidi jako Vladar pravidelne zamerne trousi(li).

            • Hele nevymyslej si a nelzi Vladar zase. Ja nikde netvrdim, ze teploty nejsou dulezite.
              Ja jen rozporuji tvoje FUDy na tema vysokych teplot a tvoje “prehrivani se” jadra.
              Misto toho lhani, a uhybani by jsi mohl konecne napsat, co na tech CPU AMD je spatne. Kdyby jsi se umel cervenat za to lhani, tak musis svitit jak Rude namesti v Moskve 🙂

          • @tombo, skutočne to nemá s tebou význam diskutovat, však v prvej vete príspevku si napísal že to je jedno a zrazu to neni jedno, zrazu si zistil ako sa mýliš.
            Už mi neodpisuj, na tvoje hysterické výlevy nebudem reagovat.

            • Ty jsi se povedl :)))
              O jakych hysterickych “vylevech” to tu mluvis? Myslis tim svoje FUDy o tom, jak AMD CPU neboostuje, nebo FUD, jak ma 1,5+V vyssi napeti, nebo jak Intel CPU je rychlejsi? Nebo, ze si mam “nainstalovat HWInfo a uvidim”? Ktery tvuj vylev mas na mysli?
              To ze ty nechapes prizpevek a prelozis si to jako “na teplote nezalezi”..kdyz ja pisu uplne o necem jinem a sice o tom, ze Vyrobce specifikuje nejake kombinace provozni teploty/napeti/spotrebu..coz je uplne neco jineho, nez to co jsi si z toho vybral.
              Ze se z toho snazis vykroutit a pises mi neco o “hysterickych vylevech a rupnutych nervach”..to je opravdu vtipne :))
              Ruply ti nervy? Dosli ti fabulace? Nemas zadnou odpoved na otazky, ktere ti opakovane kladu? :))
              Snaz se trosku Vladar..to je bida i na intelfunboye tveho kalibru..

            • Hele zajimave by bylo spis info rozdilu, kdyz pustis treba R20 na jednom threadu a kouknes na HWMonitor, jakou teplotu/napeti/spotrebu to ukazuje na jednom threadu VS kdyz jej pak pusitis v MT a jak se ty hodnoty pohybuji tam.

            • Tak SuperPI vyšroubuje teploty na maximálních 73°, většinu času to ale osciluje mezi 65-70°

            • Tak to bude hodne cez 75st., keď za pár minút benchu tam mal 73st.
              Chýba údaj o frekvencii, prečo ?

            • JO: přesně tak, navíc v CB při ST testu to dosáhlo max. 77°, a to nikoli na konci, ale během testu, takže tam zřejmě nějaký poměrně ostražitý management je.

            • “většinu času to ale osciluje mezi 65-70°” ?

              Asi ti ušlo, že to nebylo to tom, jestli ti “věřím”. Ty jsi neříkal něco, so bys zjistil/věděl. Ty jsi si to prostě “myslel” . Když je nějakej fenomén a my se ptáme, jak se to chová, tak to chce na to jít empiricky a ne se ptát filozofa v komentářích, jak si to on představuje, ještě když to vypadá, že je filozof poměrně zaujatej a tudíž by to nemusela být úplně intelektuálně poctivá úvaha.

            • Prosím ťa, každý kto pričuchol k OC ti bez filozofovania a z fleku potvrdí, že jadro pod napetím takmer 1.5V pri použití štandartného chladenia nemá šancu pod 75st. v záťaži a navyše u nových Ryzenov, ktoré sa smažia vo vnútri.
              To že teplota oscilovala 65-70st. je už výsledok managementu procesora, skrátka zostrelil napetie, frekvenciu, výkon. A to je presne prípad o ktorom si písal v tom článku….

            • mvladar: to tvoje “napětí téměř 1,5V” neexistuje.
              V okamžiku, kdy jádro zatížíš, tak tohle napětí jde okamžitě dolů (nikoli nahoru).

              Tvůj problém je, že máš nasazené modré brejličky a všechno posuzuješ podle toho, jak to funguje u konkurence, jenže tohle není intel a ten procesor prostě funguje jinak. Stejně tak ty teploty.

            • To predsa nerozporujem, práve naopak o príspevok vyššie tvrdím presne to, čo ty.
              J.O. si dostal do stavu blaženosti schválne zbabraným testom, kde vidieť voltáž i teploty, ale frekvencie/výkon ani náhodou, proč ? Takže daj dôkaz, test, kde procesor boostuje v ST na 4.4GHz pri nízkom napetí a nízkej teplote v plnej záťaži.
              Ta jak, si schopný poskytnúť dôkaz ?