Nvidia ruší technologii SLI. Už nebudou nové profily pro hry, jen DX12 Multi-adapter

112

Je to konec více než 16leté éry. Nvidia oznámila, že od nového roku přestane vydávat profily pro implicitní SLI a GPU Ampere ho dokonce už vůbec neumí.

Když minulý rok AMD vydávalo grafiky „Navi“ neboli Radeony RX 5700 (XT), zjistilo se po uvedení, že úplně opustilo technologii CrossFire, tedy multi-GPU řešení s podporou v ovladačích podobné SLI od Nvidie. Ta karet Turing SLI omezila, když jej odebrala z modelu RTX 2070 a už tehdy se debatovalo o tom, zda bude následovat a SLI zahodí úplně.

A je tomu skutečně tak. V nynější generace Ampere už nemá konektory pro SLI ani právě vydaná GeForce RTX 3080, ale protože u GeForce RTX 3090 ještě konektor NVLink je, nečekalo se, že bude SLI už odstraněno zcela. To ovšem teď Nvidia oznámila. Podpora této technologie končí, a to nejen na nových grafikách, ale v určitém smyslu i na těch starších, které ještě konektory a hardwarovou podporu mají.

Konec SLI, jak jsme ho 16 let znali

Nvidia nyní vydala ovladač 456.38 WHQL s podporou pro nové grafiky Ampere, a v poznámkách k vydání stojí, že „Implicitní SLI“ je u karet s novým GPU Ampere zakázáno v ovladačích. Pod tímto implicitním SLI se míní klasická verze multi-GPU, kdy rozdělení práce mezi grafiky řeší ovladač; Nvidia pro každou hru vydávala profily, které mu k tomu pomáhaly. Toto standardní SLI tedy na Ampere nebude fungovat, ani u starších her, které už nějaký profil v ovladačích mají.

Implicit SLI Disabled on NVIDIA Ampere GPUs

Implicit SLI, where the driver makes assumptions with application profiles to achieve GPU scaling, is disabled on NVIDIA Ampere GPUs. Explicit SLI is still supported, where the application knows the SLI state and uses extensions (such as DirectX 12 linked nodes, Vulkan device groups, or OpenGL multicast extensions) to issue commands to each device in the SLI group.

SLI profily ke konci roku skončí

Je to součást zdá se již kompletního utlumení této klasické formy SLI s profily a rozdělováním vykreslování na úrovni ovladače. Nvidia totiž zároveň vydala prohlášení, že SLI „přechází na implementace integrované ve hrách“, což jinak také označuje jako „explicitní SLI“. Podle této tiskové zprávy bude staré SLI zapíchnuto nejen v Ampere, i pro starší karty také přestanou vycházet profily.

Nvidia uvádí, že nové profily pro SLI přestane od 1. ledna 2021 vydávat. Ty, které vyjdou do té doby, budou ovšem uživatelům fungovat dál, takže hry, které profil dostanou do této doby, bude ještě možné ve SLI hrát – ovšem jen na kartách předchozích generací. Dál do budoucna to už ale bude jen „legacy“ a pro novější tituly už nepůjde toto SLI použít.

Multi-GPU bude možné, pokud si ho hra implementuje sama

Podpora hraní s více GPU tím ale nekončí zcela. Místo toho Nvidia dál podporuje ono explicitní SLI implementované na úrovni her – a to už jak na Ampere, tak na starších grafikách. To je odlišný případ a jak AMD, tak Nvidia už se na něj snaží vývojáře her přesměrovat delší dobu. Jde o technologie jako DirectX 12 Explicit Multi-Adapter a podobné v dalších API (OpenGL, Vulkan).

SLI můstek pro GeForce RTX 3090 Nvidia
SLI můstek pro GeForce RTX 3090. Stojí opět 80 $/2199 Kč (Zdroj: Nvidia)

Při použití těchto technologií už nedochází k dělení vykreslování uvnitř ovladače, ale hra musí explicitně sama od sebe komunikovat s více GPU a rozdělovat mezi ně výpočty a kreslení. Mělo by to obecně fungovat lépe, nevýhoda je ale, že vývojář hry musí do hry potřebnou infrastrukturu napsat. Pokud se rozhodne, že to za to nestojí, tak už výrobce GPU nemůže v ovladačích nic dělat a hra bude vždy využívat jen jedno GPU.

Budou vám chybět SLI profily a původní implicitní forma SLI?

U Ampere bude i explicitní SLI bude pořád dostupné jenom s RTX 3090

Situace je tedy nyní u Nvidie víceméně stejná, jako u AMD, které také dál počítá s explicitním multi-GPU (respektive, situace bude podobná, až Nvidia přestane vydávat profily i pro starší hry). U AMD nicméně asi půjde toto multi-GPU použít na větší škále grafických karet.

Vypadá to totiž, že i explicitní SLI bude nadále vyžadovat podporu u grafiky – konektory, můstek a asi i certifikovanou desku s logem SLI (to má jen část dražších modelů, je za to zřejmě třeba Nvidii platit). V tiskové zprávě Nvidia mluví o tom, že explicitní SLI přímo implementované ve hře bude (vedle Turingů, Maxwellů a Pascalů…) podporováno na GeForce RTX 3090 a dalších budoucích SLI-schopných grafikách.

PCB pro custom karty Nvidia GeForce RTX 3090 s konektorem NVLink
PCB pro custom karty (tj. ty od partnerských výrobců) Nvidia GeForce RTX 3090 ukazuje konektor NVLink pro SLI. Varianta pro RTX 3080 ho nemá (Zdroj: Bykski)

Tato změna tedy nepřinese schopnost využít více GPU pro bezkonektorové modely, kterým to Nvidia doteď neumožňovala, jako RTX 2060/2070 nebo RTX 3080. Soudě podle karet Ampere to už bude jen výsada nejvýkonnějších modelů. Otázka je, jestli to nepoškodí zájem vývojářů tuto funkci implementovat.

Dnes by měly explicitní SLI kompatibilní s kartou RTX 3090 podporovat tyto hry (nevím, zda je seznam kompletní, nebo jde jen o příklady):

  • API DirectX 12:
  • Shadow of the Tomb Raider
  • Civilization VI
  • Sniper Elite 4
  • Gears of War 4
  • Ashes of the Singularity: Escalation
  • Strange Brigade
  • Rise of the Tomb Raider
  • Zombie Army 4: Dead War
  • Hitman
  • Deus Ex: Mankind Divided
  • Battlefield 1
  • Halo Wars 2

  • API Vulkan:
  • Red Dead Redemption 2
  • Quake 2 RTX
  • Ashes of the Singularity: Escalation
  • Strange Brigade
  • Zombie Army 4: Dead War

Galerie: Architektura a detaily GPU Nvidia Ampere

Zdroje: Nvidia, VideoCardz

Nvidia ruší technologii SLI. Už nebudou nové profily pro hry, jen DX12 Multi-adapter
Ohodnoťte tento článek!
4.3 (85.45%) 11 hlas/ů

112 KOMENTÁŘE

  1. Zkousel jsem za zivot cf i sli. Kamarad totez. Vzdy jsme za honbou za fps koumali, jak toho dosahnout. A vzdy jsme byli zklamani. Chodilo par her. A jeste strasne. 200fps je jedna vec, ale stuttering druha.
    Sli ani cf mi chybet nebude.
    Davno jsem se poucil.
    Intel plus NV. (Kdyz na to clovek ma)

  2. Asi jsem natvrdlej, ale v tom starém článku o DirectX 12 Multiadapter je o tom, že tato technologie umožňuje zapojit do práce dvě naprosto různé grafiky i od různých výrobců a v tomto článku zase píšete, že to bude fungovat jen na kartách, co mají SLI konektor.
    Nebo to mám chápat tak, že dvě karty od stejného výrobce (nepropojené SLI) nepůjde v počítači zprovoznit, protože ovladač bude vidět jen jednu? Takhle to funguje u spousty hardwaru, třeba se mi nepodařilo zprovoznit dvě stejné webkamery, protože ovladač vidí vždy jen jednu z nich.

    • Z toho jsem také zmatený, dosud jsem měl za to, že přes DX12 multiadapter jde využívat spolu jakékoliv GPU. Ale pokud je to tak, že i na toto je potřeba nějaké povolení v ovladačích, které NVIDIA opět záměrně blokuje, pak ať se jdou bodnout, protože s takovým přístupem žádný vývojář tuto technologii do své hry neimplementuje, kvůli těm 0,001 % zákazníků. A že jsou situace, kdy se zapojení výkonu více GPU může hodit – takové náročné tituly, zejména pro VR, tu jsou.

          • Není co vysvětlovat. Přinášelo to více námahy než užitku. Ano tudy tedy přes spojování karet ala SLI cesta nevede. Vede ale přes rozsekání GPU na menší části co budou schopny lépe odvést zbytkové teplo tedy přes chiplety.

            • já jsem z tebe rozsekanej na padrť … 😀 opravdu … tobě není pomoci …

            • Na padrť jste z vlastní nechápavosti nebo neochoty si sám něco zjistit. Prostě jste jenom takový Pepa Prudič. Chtěl jste znát můj názor tak jsem Vám ho řekl. Nač si stěžujete?

              Přitom by stačilo trochu zagůglovat po naší diskusi a našel byste dost informací. Prostě jste se ze včerejší diskuse nepoučil.

            • jj já jsem pepa prudič 😀 nejsem to já, kdo potřebuje googlovat a že jsem se nepoučil? Máš pravdu, kdybych se poučil, s retardem se nevybavuji. Ty jsi včera udělal ze sebe totálního idiota, kompleního, jako z reklamy a mě tady jdeš vykládat o googlu a poučení … tak jo, klidně tě nechám máchat ve tvém přesvědčení jaký jsi génius a jací jsou lidé kolem tebe tupci … tohle už není o egu, hodí se na tebe několik diagnóz a ani jedna není zrovna přívětivá … můžeš se zlobit jak chceš, ten, jehož jméno se nesmí vyslovit, by měl z tebe obrovskou radost, sektář jako vyšitý …

            • Kdybyste se poučil tak jste si mohl zjistiti třeba níže uvedené. Víte myslel jsme si, že Nvidia nedělala nic ohledně chipletů. Jsem opravdu rád, že ve mne Alich vzbudil pochyby a našel jsem tohle https://www.pcgamesn.com/nvidia/graphics-card-chiplet-designs Nvidia tedy připravuje chiplety o kterých tvrdíte jak jsou drahé a komplikované.

              Já se nezlobím ale ani nejsem génius. Jsem překvapen jak jste mimo. Nejste schopen uvést jediný technický argument a celou diskusi jste okamžitě od DedekHrib 19.9.2020 at 10:51otočil do osobní roviny. Inu Pepa Prudič.

            • oslíku, já ale nikde nepopřel, že něco takové není možné, naopak, ne jednou jsem psal, že tohle je jediná cesta … zbytech nechám na tobě, víc blábolit snad už ani nemůžeš …inu, Oslič …
              a když už odkazuješ na nějaký článek o něčem, co se ví roky, alespoň si ho přečti, píší tam přesně to, co jsem ti napsal já (jinými slovy samozřejmě) … blekoto

            • Tak proč celou dobu od DedekHrib 19.9.2020 at 10:51 prudíte? Stačilo napsat ano s tím souhlasím a ne být na padrť. Inu Pepa Prudič.

            • kamaráde, nechtěl bys mě řešit osobně … brečel bys nonstop … já jsem hrozně hodný člověk, nenávidím násilí, ale jak mě někdo nasere tvým způsobem, bez výčitek ti flusnu do obličeje … takže žádný prudič, pouhý jeden z Newtonových zákonů …
              a s čím že mám souhlasit? Naopak, nesouhlasím téměř s ničím, co tady předhazuješ …

            • Když jak píšete „Naopak, nesouhlasím téměř s ničím, co tady předhazuješ …“ co je k nesouhlasení na mém příspěvku?

              „Není co vysvětlovat. Přinášelo to více námahy než užitku. Ano tudy tedy přes spojování karet ala SLI cesta nevede. Vede ale přes rozsekání GPU na menší části co budou schopny lépe odvést zbytkové teplo tedy přes chiplety.“

            • Když jste tuhle druhou šanci nevyužil počastoval mne dalším svým žlučovitým výměškem, tak Vám děkuji za potvrzení že jste jenom obyčejný Pepa Prudič.

            • jak píše Tombo, to víš že jo, retarde … tys mě vzal na milost a já jsem to takhle pohnojil, dokonce dvakrát 😀 😀 Tož nevím, kdo komu tady hýbe žlučí … na tebe se originálně hodí Štepánkova hláška … intelektuálně nesmělý …

            • Nevzal jsem Vás na milost jenom jsem Vám dal možnost převést naši diskusi zpět na faktické argumenty. Opět jste to převedl do emoční roviny a stelete ty svoje zakomplexované zkraty.

              Mám pocit, že budete asi hodně osamělý člověk. Tohle mi připadá jako byste si ulevoval ze svého neradostného života tím že vylejete svoji frustraci na někoho. A tím rozhodně nemyslím jenom sebe. Můžete si znova ulevit když nemáte jak slušně odpovědět. Když Vám to uleví v životě klidně si poslužte.

            • a že kdo to otáčí do osobní roviny 😀 DD ty nejsi jen hlupák, ty jsi vtipný hlupák, to není žádná osobní rovina, to je prostě fakt … faktama se dá reagovat jen na fakta, ne na totální hlouposti … cizí jazyky neumíš, přeložit si to neumíš, pak mi sem dáváš linky které popírají co jsi napsal a potvrzují, co jsem ti napsal já … jaká chceš fakta, když nerozumíš psanému? Blekotáš o neradostném životě, blekotáš o frustraci … evidentně soudíš podle sebe, oslíku. Že jsi exemplární hlupák, na tom není nic urážlivé … jak by jsi nazval člověka jako ty? „Neerudovaný psychopat“, nebo „na něco si hrající zbytečnost“? Nebo jak? Naznač, přizpůsobím se …

            • Takže pojďme zpět k faktům. Dám Vám znova možnost fakticky zareagovat od DedekHrib 19.9.2020 at 14:02

              Když jak píšete „Naopak, nesouhlasím téměř s ničím, co tady předhazuješ …“ co je k nesouhlasení na mém příspěvku?

              „Není co vysvětlovat. Přinášelo to více námahy než užitku. Ano tudy tedy přes spojování karet ala SLI cesta nevede. Vede ale přes rozsekání GPU na menší části co budou schopny lépe odvést zbytkové teplo tedy přes chiplety.“

            • DedekHrib 20.9.2020 at 9:23
              Takze vy tvrdite, ze treba 4 ciplety ekvivalentni vypocetnimi jednotkami a funkcemi (tedy i s propojovaci logikou a cestami) vyzaruji mensi az stejnou tepelnou energii jako monolit?

            • I když oceňuji že se chováte slušně, zase jste mi neřekl s čím nesouhlasíte přesto, že jste mi psal „„Naopak, nesouhlasím téměř s ničím, co tady předhazuješ …““.

            • já se z toho snad poseru … to není o této jedné větě, ale o všem, co tady rozebíráme třetí den … ty si vytáhneš jednu nicneříkající větičku a čekáš … já se chtěl k tomu dopracovat otázkami na tebe, ty tohle … s tříletým děckem se dá diskutovat lépe …

            • Alich 20.9.2020 at 9:44
              Zdravím. Nikdy jsem nic takového nenapsal. Myslím (je to pocit, že bude potřeba další energie na „dopravu“ informací a jejich koordinaci mezi chiplety) si že potřebují či spíše budou potřebovat větší energii. Ani to nejsem schopen odborně posoudit. Já jenom tvrdím, že cesta vpřed v oblasti GPU jsou chiplety a potvrzují to zprávy jak od AMD tak od Nvidia. Stejně tak tomu nahrává podobnost CPU a GPU i to že na CPU už chiplety máme.

              Princip je následující: Uvědomte si že výrobní technologie zahustili obvody tak, že při se snadno uškvaří. Na stále menším prostoru vzniká obrovské množství odpadového tepla. Cesta je rozložit teplo do prostoru – chiplety.

            • gogo1963 20.9.2020 at 9:52

              No když mi nejste už třetí den odpovědět tak se nedivte. Zase jste to převedl z faktické roviny do osobní roviny a neodpověděl jste mi.

              Co Vám brání v odpovědi? Odpovíte mi? Kolik dní se ještě chcete dohadovat?

            • už ti to tady někdo napsal … ta podobnost cpu a gpu je jen optická, dvě placky, nijak není podobné vůbec nic. Nejde propojit gpu tak, jak jsou propojené cpu chiplety, hledá se technologie u všech tří firem, kdo a kdy ji nalezne první, je ještě ve hvězdách, každá z firem má svoje představy, na něčem pracují … propojit gpu několika málo cestami řešení není, cpát mezi chiplety nějakou propojovací jednotku vše snad ještě zhorší, více cest, víc prodlev, víc tepla

            • DedekHrib 20.9.2020 at 10:07
              Ciplety to teplo „nerozkladaji“, naopak pridavne cesty a logika, jak jste sam psal, to teplo bude zvysovat. To, co se firmy pomoci cipletu snazi resit je primarne cena. Proc? Jednoduse proto, ze vyrobit hodne vykonne GPU a CPU souvisi i rozlohou a vetsi cip obecne znamena vetsi nachylnost k poruse. Pokud budete mit treba cipy o velikosti 4 na wafer a poruchovost bude 50%, tak mate z jednoho waferu 2 cipy. Pokud tech cipu tam budete mit 100 a poruchovost bude 20%, tak mate porad 80 cipu. Pokud by 1 velky cip byl ekvivalentni treba 20 malym, tak misto z velkeho monolitu mate vyteznost 2 cipy, z malych cipu (cipletu) mate vyteznost 4 (80 / 20).
              Jedine, kde lepe distribuujete teplo je o kousek vetsi rozloha cipletu, ale takovy nemuzete dat zase moc daleko od sebe – logicky by dlouhe cesty znamenaly degradace frekvenci (rychlost naboje) a take to mmj prinasi radosti s chlazenim v zapouzdrenem cipu (bylo jedno hezke video o tom, jak pastovat Threadripper prave kvuli cipletum – protoze pri klasicke metode pak dochazelo k nepokryti casi pouzdra a tedy zvyseni teploty na cipu).

              A jeste k tem cipletum GPU vs. CPU. Ano, podobnost tam je, ale logika a propojovaci logika techto dvou vypocetnich kremiku je podobna asi jako vysokozdvizny vozik s kolobezkou – oboji maji kola).

            • gogo1963 20.9.2020 at 10:13

              Zažívám příjemné překvapení.
              Promiňte ale to že to je schůdná cesta asi vědí mnohem lépe u Nvide než rádoby odborníci jako jsme my dva. Pracují na chipletech viz https://www.pcgamesn.com/nvidia/graphics-card-chiplet-designs nebo u AMD viz https://www.tweaktown.com/news/74274/amds-next-gen-rdna-3-revolutionary-chiplet-design-could-crush-nvidia/index.html

              Jinými slovy i když jsou některý Vaše argumenty rozumné jsou to jenom parciální problémy které jsou řešitelné. Chiplety je možné zavést i GPU a jejich aplikace přináší více užitku než problémů.

            • Alich 20.9.2020 at 10:29

              Víte, že říkáme skoro to samé? Já jenom používám termín „Ciplety to teplo rozkládají do plochy“ a Vy píšete „lepe distribuujete teplo „. Co píšete je logické a souhlasím.

              A s těmi GPU a CPU i s tím s Vámi souhlasím. Ano vysokozdvižný vozík s koloběžkou – obojí mají kola. A k tomu dodávám u CPU a GPU mají možnost použít chiplety.

            • psal jsem už předtím, že čiplety u gpu jsou ekonomicky neúnosné, alespoň zatím, v tom článku se to píše několikrát a na závěr … „But when it comes to gaming GPUs I’m not convinced we ever will. With CPUs it’s a lot easier to combine multiple chips together to work for a common processor-y goal on their specific workloads“ … co chceš víc slyšet?
              u profi karet to bude pravděpodobně jinak, protože i jejich cena je o řád vyšší, zatím je tam „nvlink“, kdo ví co příště … dle mého názoru, dokud půjde zmenšovat proces, do té doby budou monolity hrát prim …

            • gogo1963 20.9.2020 at 10:47
              Chiplety jsou ZATÍM pro Nvidiu ekonomicky neúnosné. To slovo zatím je velice důležité. To že chiplety vyvíjejí dokazuje, že předpokládají změnu stavu. (Jinak by nepracovali na chipletech ale dělali něco rozumnějšího )

              Proč? Malé chipy jsou násobně levnější na Výrobu než veliké. Protože výroba menšími procesy má stále vetší a větší problémy musí se jít cestou chipletů. Jinak si v budoucnu prakticky znemožnili v jedno chipu dodat vyšší výkon.

              Jestli Nvidia něco neudělá s chiplety tak se může dostat do podobné situace jako Intel s procesory. Stejně jako nemám radost z vývoje na poli procesorů tak bych se nechtěl dožít stejného výsledku i u GPU.

              Ale k tématu SLI umírá chiplety nastupují. co Dodat více?

            • poučovat mě svými pseudofakty nemusíš, psáno je jasně, přímo z nvidie, nepředpokládají, že se někdy čiplety dostanou do herních karet … pokud se něco změní, dají vědět … a že je kousek něčeho na výrobu levnější neznamená, že bude levnější celek … a ta poslední tvoje věta je zcela mimo mísu … bez sli grafická karta funguje …

            • gogo1963 20.9.2020 at 11:26
              Nechte si prosím to označení pseudofakta. Logicky je rozporujte ale nedemonstrujte to.

              A proč u Nvidie tedy vyhazují ve vývoji chipletů peníze? Co když tohle je jenom lež která má za cíl oblafnout konkurenci? Jestli je ten pán pracuje na vývoji chipletů a svá slova myslí vážně tak učinili kozla zahradníkem.

            • gogo1963 20.9.2020 at 11:26

              „Ale k tématu SLI umírá chiplety nastupují. co Dodat více?“ Fakt nechápu proč v této souvislosti tvrdíte nepopiratelné a to že „… bez sli grafická karta funguje …“ Asi jste něco nepochopil.

            • pseudofakta se jinak nazvat nedají … nevíme, za co nvidia vyhazuje peníze, že dělá na čipletech neznamená, že nedělá na mnoha jiných věcech, třeba stackování čipů, nebo jiných způsobech … že na tom dělá i AMD neznamená, že to dotáhne do zdárného konce … Intel taky dělal na 10nm procesu 8 let a pořád tady pořádně není … takových dělání je u všech firem hafo, nic neznamenají, nic nedokazují … a že někdo něco nepochopil 😀 tak to máš pravdu, já to ale nejsem …

            • nvidia nic neodtroubila, nic nepotvrdila, jen se píše, že čiplety mají smysl v určitých oblastech, při zpracování velkého objemu dat, nebo deep learningu, ne u herních grafik … čemu na tom nerozumíš? A že podle mě něco nemá budoucnost, to jsi vydedukoval z čeho? 😀
              další věc je, vyjasnit si slovo „vývoj“ … taky se v tom článku píše, že jsou nějakým způsobem na papíře a že pokud to bude aktuální, posunou ty nápady návrhářům čipů … nic o vyhazování peněz za čiplety nikde není …
              k tomu dodatku … klíčové slovo „mohlo by být“ … nic víc

            • čeho kolik je? Všechno o tom samém, přebrané … a že se to k nám nedostalo? S tebou nemá smysl rozebírat to … kdejakých blafů je všude možně plná … dále … předpokládat, že dva čiplety každý o 200mm2 budou dávat dohromady stejný výkon jako jeden 400mm2 monolit asi nebude reálné … nefunguje to tak, jako u cpu …

            • DedekHrib 20.9.2020 at 10:44
              „Víte, že říkáme skoro to samé? Já jenom používám termín „Ciplety to teplo rozkládají do plochy“ a Vy píšete „lepe distribuujete teplo „“

              Prave nerikam to same. Duvod, proc Nvidia, AMD, intel a jini zkoumaji pouzitelnost cipletu je primarne kvuli vyteznosti. Velky kus kremiku je proste problematictejsi vyrobit, nez ten maly. Naopak teplo se diky cipletum bude zvysovat, protoze musite jeste pridat logiku pro propojeni a samotne propojeni. Plocha u cipletu sice trochu vzroste vlivem pouzdreni (ctete: okraju), ale ciplet ABCnm bude vyzarovat to stejne teplo na mm^2 jako monolit, jen bude patrne mensi. No a proto, abyste dosahnul stejneho vykonu, tak budete muset mit minimalne tolik cipletu, na kolik byste rozdelil ten monolit (v praxi to bude jeste horsi, staci se podivat co zpusobuji ciplety u AMD vs. intel monolit co se celkoveho vykonu tyka). Tedy vysledne teplo z cipletoveho cipu bude vetsi, nez z monolitickeho a distribuce toho tepla (plocha) nebude o tolik vetsi, takze zrejme bude tezsi ten cipletovy cip uchladit, nez kdyby byl monoliticky.

            • ty čiplety můžou namačkat na sebe podobně jako monolitický čip s HBM pamětmi, tam je mezera skoro nulová, otázka je, jak to propojit … nějakých pár stovek cest z jednoho čipletu na druhý nic neřeší

            • Kdyz se namackaji na sebe, tak logicky vyhoda „distribuce tepla“ odpada. Jenze to je ten problem, ze ciplety od sebe nemohou byt „daleko“, ne pri techto pozadovanych vykonech, takze vlastne na sebe „namackane“ jsou uz ted.

            • uvidíme, jestli přespřístí rok některý, nebo všichni vyběhnou s čiplety, moc tomu ale nedávám … na 5 nanometrech euv se může monolit zase o něco zmenšit a výkon dostatečně vzrůst …

            • To co označujete jako „blafy“ napsali lidé kteří byli mnohem chytřejší a odborníci než my dva dohromady. Zase jenom znevažujete myšlenky ostatních snad aby Vaše ego mohlo excelovat. Je to smutné excelování. Je to i absence pokory a úcty tak do očí bijící. Dělejte s tím něco.

              Debatu s Vámi končím a jdu se věnovat něčemu užitečnějšímu. Myslím si, že bylo úspěchem to jak jste omezil ty svoje výpady a v klidu jsme to dotáhli povídání až sem. K tomuhle se vrátíme až budou chiplety na GPU. Až se po tomhle pohřbu SLI se narodí i chipletová GPU.

            • Alich 20.9.2020 at 13:01
              Směšujete dva termíny. Celková spotřeba grafické karty (celkově vyzařované teplo) a vyzařování na plošnou jednotku chipu (to byste viděl v termovizi). Chiplety dělají místo jednoho tepelného ohniska několik menších ohnisek od sebe vzdálených. Místo jednoho velkého ohne je několik malých ohníčků od sebe vzdálených.

              Rozumíte mi?

            • a tohle je další z tvých blábolů … Alich nic nesměšuje, píše docela jasně a myslet si, že 4 rozpálené čiplety udělají méně tepla než jeden monolit, to si můžeš myslet opravdu jen ty a tvůj idol dd … rozvaděč tepla rozvádí, u čipletů bude jen odvádět … douč se fyziku a kde co …

            • DedekHrib 20.9.2020 at 13:39
              Ne, nerozumim vam vubec. Psal jsem o cipletech a monolitu a vy do toho montujete celkovou spotrebu graficke karty. Nezlobte se, ale vzdavam to, diky za diskuzi, vic energie uz tomu venovat nebudu.

              gogo1963 20.9.2020 at 13:45
              Diky.

            • Alich 20.9.2020 at 14:43
              Celkovou spotřebu jsem zmiňoval abyste si uvědomil, že Vy o ni mluvíte ale neuvědomujete si to. To byla snaha o vysvětlení toho efektu oddělených ohňů.

              Jestliže ohně oddělíte na několik menších ve kterých spálíte více paliva než v tom centrálním tak mezi ty ohně můžete vložit mnohem více teplovodiče kterým odvedete mnohem více tepla po mnohem větší ploše do prostoru. Díky tomu vloženému teplovodiči (je to takový heatsink) snížíte teplotu oněch malých ohňů. Chiplety se méně zahřívají. To je ten princip kterému nerozumíte nebo nechcete porozumět.

              Dostalo mne to poděkovaní Gogovi. Děkujete inkvizitorovi ta jeho lživá dogmata a nechcete pochopit jak tomu je. Je ta Vaše cesta užijte si ji.

            • hřibe, pořád někoho vyzýváš, aby si něco uvědomil … uvědomuješ si, že jsi korunovaný vůl? Ani ne kvůli tomu, co tady plácáš, ale jakým způsobem se snažíš ty svoje nesmysly prosadit …
              na závěr by ses mohl pokusit vysvětlit mi, co že si to mám užívat, když ztrácím čas s takovým volem?
              … lživá dogmata 😀 bože

    • No taky mi přišlo zvláštní, že to dál bude omezené, když to bude implementované přímo v rámci hry. Ale zřejmě to Nvidia může uměle zablokovat (ono třeba takovéto že musíte mít desku s logem SLI nic jiného než umělé omezení nebylo). Jestli je ta komunikace mezi kartami m-stkem při těchle technikách multi-GPU nutná a Nvidia to teda omezuje (i) proto, to nevím.

  3. Také jsem z tvrzení článku poněkud zmatený. Přesně tak, jsem DirectX 12 Multiadapter, jako vy pochopil také:

    https://www.anandtech.com/show/9740/directx-12-geforce-plus-radeon-mgpu-preview

    Na YouTube jsou již roky videa, kde lidé kromě kombinací grafik od NVidia a AMD, jsou třeba 2x GF 1050, nebo 4x GF 1030.

    Možná je to jen nějaké omezení oficiálních ovladačů od Nvidia. Pokud si vzpomínám, vždy tam používali nějaký patch.

  4. Ono to kdysi vypadalo, ze hracu bude ubyvat a vyrobci grafik tvrde zaplaci, tudiz napad se dvema grafikama, kdy by hraci nekupovali jednu, ale dve, tudiz dvou nasobne prodeje, davalo to vyrobcum smysl. Hracum tolik ne, protoze ani CF ani SLI moc nefungovalo.

    Dneska je situace jina, grafiky podrazily, hraci uz neubyvaji a vyrobci spis maji problem vyrobit tolik grafik, aby uspokojili vsechny hrace. Tudiz SLI ani CF uz nedavaji smysl ani jim.

    Navic vec, ktera s tim muze souviset, ze se po pocitacich pozaduje, aby byly tiche. Pritom prave grafika dela obvykle nejvetsi bordel. Vzpomente pritom driv, jak nam ty PC hucely jak nejakej parni stroj. Dneska to neni, dneska chcete tichej uspornej procesor jako nabizi AMD a tichou uspornou grafiku, to se bohuzel NVidii naposledy podarilo s Pascalem. Nakonec proto ted nekteri cekame na listopad na zazrak, ze po 350W zbijecce NVidie prijde na radu usporne vykonne AMD jako takovy zazrak z cisteho nebe, ale osobne se tomu take spis usmivam, uvidime.

    • S tým prvým odstavcom nemôžem úplne súhlasiť, ja si to pamätám asi tak, že v tej dobe ponúkala jedna GK stále nedostatok výkonu na FHD pričom hry v tej dobe boli dosť náročné, napríklad prvý Crysis a pod. Tak vy mysleli SLI a CF, pričom to bolo primárne mierené do snoob segmentu, to že tie výsledky neboli až také ako sa to sanžili prezentovať je druhá vec. Tretia vec je, že SLI/CF začalo byť tak trochu zaujímavé aj pre menej majetných hráčov a to spôsobom, že hráč si kúpil dosku (drahšiu samozrejme) s podporou SLI/CF k tomu jednu GK od strednej triedy po hi-end a plánoval že po jednom až troch rokoch dokúpi ďalšiu obdobnú GK z bazáru akú už mal v mašine. Samozrejme že k tomu z 90% (asi aj viac) nikdy nedošlo a buď kúpil úplne novú GK alebo celý comp. Jediný kto z SLI/CF skutočne profitoval boli výrobcovia základných dosiek a presne na tom základe začali byť „normálne“ ceny dosiek +200€, teraz sa ten dojem potreby drahej dosky už márne snažia udržať, väčšinou na to používali techniky prémiovej sieťovej integrácie, v začiatkoch Wi-Fi a teraz 2,5-10Gbit LAN. /// K tej novej rade AMD, príkon top modelu je už v podstate +- jasný +300W, otázka je už len aký k tomu ponúkne výkon.

  5. On niekto pri zmysloch fakt veri, ze sa najde jediny vyvojar, co sa bude patlat s komplikovanou multigpu implementaciou, ked jediny hardware, co to vyuzije je 2×3090, cize zostava, co len v grafikach stoji 3000 eur? Kolko potencialnych zakaznikov jeho hry to oceni, ci dokonca (co je vlastne jedine pre vyvojara naozaj dolezite) sa prave vdaka tomu rozhodne tu hru kupit? Dvaja? 🙂

      • Ololol. 😉 Ty asi nebudes moc programator, ze ano. Poviem ti tolko, ze problem je i len prekompilacia pre dva odlisne procesory, ktora by nahodou bezala 100% dobre (co sa casto nestava), pretoze tym automaticky ak mas akukovek chybu reportovanu pre dany typ CPU, musis ju testovat na nom, aby si si bol 100% isty, ze to nie je prave v tom. Pricom urobit bezchybny vseobecny (!), automaticky kod, co bude distribuovat (skoro optimalne) tasky pre dve gpu a vysledky mergovat, pricom na 99.998% zostav bude toto v skutocnosti neaktivne pac je tam GPU len jedno – no jasne. Kazdy radsej napise, ze to nepodporuje a odmieta sa s tym srat, to je prakticka realita.

      • Ak urobis multithreadovy task, kde cast uloh spustis na GPU1 an cast na GPU2, ziadny vendor s tym nic nenarobi, leda zeby kompletne zakazal nainstalovat drivre, ak je v PC uz konkurencne GPU. Problem je, ze je to vlastne rovnako komplikovane ako multithreadove ulohy so vzajomnou synchronizaciou pre CPU (v skutocnosti este viac, pretoze u plynuleho a rovnomerneho fps si nemozes dovolit ani najmensi starving jedneho threadu na ukor druheho). Takze – kto by to pre tak mikroskopicky trh robil? Jedine snad v pro render aplikaciach, co sa predavaju za desat az sto tisice dolarov. To hry nie su ani nahodou.

  6. S tim SLI / CF je to skoda, ze se ta technologie nerozvinula jinak. Ono by bylo krasne mit neco jako „graficka NUMA“ v dekstopu, zel to takto nefungovalo. Zaroven mi ani nedava smysl, aby si tuto technologii resili vyrobci her sami, o toto se ma starat driver (ridici SW / FW), vrstva nad tim – napr. hra – ma resit jen „mam dostatek pameti? mam dostatek vykonu?“ a dalsi veci jako „optimalizace sceny“.

    • Jo presne tak jsem si pral, aby to tak fungovalo. Slibovali, ze pod dx12 muzeme mit ruzne karty a budou spolupracovat.
      Proc os nevyuzije i pamet na gpu? Dalsich 8gb pameti. Atd.
      Vyprdli se na to:
      Jednak moc prace to napsat a sladit
      Druhak, kdo chce high end, musi vysolit dost penez a tecka. Zadne 2x mid gpu = 1 high end. To oni nechtej. Oni nam chtej prodat za nesmysl top kartu.
      Oni te skasnou jako svine, ty si zahrajes, oni usetri na podpore.
      Takhle bych to videl, proc nam to moc nikdy nefungovalo.

  7. Toto som hľadal – ComputerBase otestoval export videa formátu 4K/59.94 fps + zložité efekty v Premiere. Implementácia HW akcelerácie Adobe je klasicky slabšia, taký Director bude znova hviezdiť, ale i tak RTX 3080 to zvláda perfektne, menej ako reálny čas:
    – TR 3990WX = 5 FPS
    – GTX 1080 = 9 FPS
    – RTX 2080Ti = 54 FPS
    – RTX 3080 = 70 FPS
    Obrázok z testu :
    https://mirovl.rajce.idnes.cz/4K_efekty_export/1461267498

  8. tombomino 21.9.2020 at 9:37
    Eh, tech black a blue screenu je tam trosku moc. Takove drivery by nemel publikovat zadny vyrobce, ale nezijeme v idealnim svete. Shit happens. Tak uvidime, jak dlouho jim bude trvat fix.
    Na druhe strane jsem pred nejakou dobou odinstaloval svoji druhou grafiku (AMD v tomto pripade) z pocitace, vcetne vsech driveru. V trayi mi zustala ikonka „Radeon“, ktera za sebou nema zadnou utilitu, ale je tam. Takze to je zase „neschopne“ AMD pro zmenu. Jenze pocitace jsou tak slozite, ze se nekdy vubec divim, ze po zmacknuti tlacitka se zacne neco dit 😉

    • Ja se taky nedivim a je to presne tak.. chyby se stavaji“. Nemeli by se stavat ale moc casto..protoze pak je zakaznik nasrany 😀
      JInak ja jsem to postnul schvalne, ne proto, ze by NV to nebo ono, ale pro ty hlasky typu „to se stava jen AMD“. Protoze to neni pravda a stava se to vsem.
      Vic zatim neni.