První samostatná GPU Intel mají architekturu Xᵉ, budou konkurovat i hernímu highendu

30

Minulý týden jsem tu psali o architektuře Gen11, což je označení pro GPU, která bude Intel integrovat do 10nm procesorů Ice Lake. Poté ovšem firma řekla i něco k následující generaci, která má mít o hodně větší ambice. A také konečně o samostatných grafikách, které mají vyjít v roce 2020 a budou postavené právě na tomto základě.

Na rok 2020 plánuje Intel opět další novou generaci grafické architektury, následující po Gen11. Neoficiálně se jí přezdívalo logicky Gen12 a mělo jít o GPU pro procesory Tiger Lake. Jak si asi vzpomínáte, na architektuře z Tiger Lake měla být údajně založena také první samostatná GPU Intelu. To bylo také potvrzeno. První samostatné grafiky podle Intelu vzniknou na základě generace přímo následující po Gen11.

Označení ale bude jiné, s přechodem k samostatným grafikám se Intel rozhodl také přijít s novou značkou. Tato GPU se mají jmenovat Xᵉ, respektive to možná bude označení pro jejich grafickou architekturu, to ještě úplně jasné není. Zda tedy Xᵉ bude přímo jméno, které Intel postaví proti Radeonům a GeForce, teprve uvidíme. Nejde přece jen o něco, co se bude spotřebitelům dobře pamatovat/vyslovovat a už vůbec ne psát nebo hledat na internetu.

Zatímco Gen11 bude stál jen architektura pro integrované grafiky, Xᵉ má mít poprvé onen širší záběr. Má pokrývat jak integrovaná grafická jádra, tak samostatné grafické karty. Ovšem nebude pro všechny tyto segmenty stejná. Intel zdá se má stejnou strategii jako Nvidia a rozštěpí Xᵉ na dvě větve. Jednu pro PC, která bude patrně mířit na herní využití (nebo ještě multimédia) a v prezentaci je označená jako „Xᵉ optimalizovaná na klientské použití“. Zároveň ale bude existovat druhá verze „optimalizovaná pro datacentra“. Ta bude zřejmě zaměřená na HPC výpočty a na výpočty strojového učení a umělé inteligence. Xᵉ má škálovat od TFLOPS po PFLOPS, takže Intel má v merku i superpočítače a klastry, v nichž by těchto GPU bylo spřaženo velké množství.

Slajd z prezentace architektury GPU Intel Xᵉ: Intel vytvoří samostatné větve pro herní a výpočetní sféru (Zdroj: AnandTech)

Od levných a integrovaných grafik po ty nejvýkonnější

Podle Intelu budou tyto dvě větve každá představovat samostatnou mikroarchitekturu založenou na společné architektuře Xᵉ. Jak velké budou mezi nimi rozdíly, tedy ještě přesně nevíme, ale asi by mohlo jít o stejný základ lišící se například přítomností podpory pro výpočty s dvojitou přesností (FP64), ECC pamětí a specializovanými jednotkami pro akceleraci neuronových sítí pro ono strojové učení. Architekturu Xᵉ bude pak rozvíjet několik dalších generací, pro něž bude představovat základ. Nepůjde tedy o nějaký ojedinělý pokus, Intel má připravenou celou roadmpau následujících generací.

Pořídíte si novou grafiku Intel Xe?


Jak už bylo řečeno, GPU Intel Xᵉ přijdou na trh v roce 2020. Jak procesory Tiger Lake, tak samostatná verze pro PCI Express bude vyráběná na 10nm procesu. Podle slajdů Intelu mají obě mikroarchitektonické větve pokrývat prostor od serverů přes všechny segmenty PC trhu až po integrovaná GPU a lowendové samostatné karty. To by implikovalo, že se Intel pokusí dosáhnout výkonů konkurenceschopných s celým spektrem konkurenčních grafik GeForce a Radeon. Ve slajdech jsou ukázány cenové/výkonnostní kategorie „entry“ (levné karty), „mid-range“ (střední proud) a „enthusiast“ neboli nadšenecký segment. Intel tedy chce dodat i kartu s vysokým/highendovým výkonem. Jak se to ve finále podaří, to zatím samozřejmě nevíme. Tyto karty budou asi soupeřit už se 7nm Radeony a GeForce, jejichž výkon také předem neznáme.

Xᵉ má přinést integrované grafiky a samostatné karty od lowendu přes mainstream až po highendové herní karty (Zdroj: AnandTech)

Za nějaké dva roky se tedy schyluje k zajímavé premiéře, protože se zdá, že Intel se chce do grafického trhu skutečně opřít vší silou. A ta je po stránce zdrojů, financí a koneckonců i zkušeností hodně velká. Tento pokus o rozšíření konkurence v GPU pro osobní počítače ze dvou hráčů na tři má asi největší šanci od doby, kdy zkrachovalo 3Dfx.

První samostatná GPU Intel mají architekturu Xᵉ, budou konkurovat i hernímu highendu

Ohodnoťte tento článek!
4.7 (94.48%) 29 hlas/ů

30 KOMENTÁŘE

  1. No finance na to mají tak jsem zvědavý. Rozhodně budou mít v plánu dělat svá kompletní řešení a tak podle mě v noteboocích u levných produktů vymizí kombinace s nVidii a AMD. AMD se asi taky pokusí mít hlavně svý kompletní produkty. Opravdu jsem zvědavý jak se to vyvine.

  2. finance měli vždycky, ne jen teď a zatím to bylo stále jen fiasko….. Ale je pravda že na to šli doteď špatným směrem, tzn. z x86 CPU se snažili udělat GPU….. Možná když se pokusí vytvořit tradiční GPU , bude to mít větší naději. Stejně ale bez placení za patenty Nvidii nebo AMD se neobejdou , protože dneska vytvořit GPU, které by neporušovalo nějaký patent nejde…. A Koduri je IMHO velmi přeceňovaný člověk. Mno , těším se docela na to co předvedou 😀

    • Haha, take mi to zni jako velkohuby plan Kakodura, jen tam chybelo neco jako “poor competitors” 😉
      A ted vazne, Intel ma prostredku dostatek, patenty maji i oni, takze bych asi nepanikaril. Spis se ukaze sila navrhu, protoze i pres problemy s 10nm, Intel technologii ma. A pokud by se splnil i vlhky sen, tak ve 2020 by tu mohl byt opravdu pekny konkurencni boj o zakaznika v celem spektru 🙂

      • no prostředky mají jak jsem už napsal mnoho let ne jen teď poslední dobou kdy je u nich Kakaduri 😀 a nevzešlo z toho nic…..

        Síla návrhu ? no na ten jsem opravdu zvědavej. Aby to ve finalé nebylo jen nafouknuté iGPU z těch nových Cove Lake :-))

        A všude kde to vedou Indové to stojí za prdlajz

        • Přesně jak píšeš. Tady to není o penězích, ale know-how a dlouhodobém úsilí. Všichni už asi zapomněli, že AMD staví na ATI, což je jedna z nejstarších firem věnujících se grafice a podobně nvidia má „prazáklad“ v 3dfx (která měla zase kořeny v lidech z SGI). A tuhle „historii“ Intel jednoduše nemá, má jen obecný grafický adaptér, ze kterého vytepat nějaké svébytné řešení stojí nejen čas, ale i lidské úsilí a důvtip. V kombinaci s korporátním pojetím „řešení za 3 roky, nebo to zabalíme“ (Larabee), popřípadě „máme grafiku, ale nevíme co dál“ (i740) to nevidím moc růžově – a i kdyby byl Koduri génius, tak s pytlem ho*en stejně bič neuplete – a když uplete, tak opakovaně nezapráská. 🙂

          • del42sa, tynyt, souhlasim s obema, proto jsem rikal “mokry sen”. Na druhe strane nejake zkusenosti maji, prostredku spoustu, takze ted zalezi jen na tom, jak to budou smerovat. Nechce se mi verit, ze by v roce 2020 konkurovali hernimu high-end, ale do mainstreamu by se dostat mohli. Ja jim kazdopadne fandim, protoze jejich uspech pomuze nam – uzivatelum.

          • nVidia rozhodne zadny prazaklad v 3dfx nema, jejich GPU si vzajemne konkurovaly. Viz. GF2 versus Voodoo5500, kde uz GF mely navrch. To co bylo prevzato a jako jedine melo jeste nejakou hodnotu, byl koncept SLI, ale rozhodne ne GPU jako takove, tam uz 3dfx ztracel.

            • Je to přesně jak píšeš. 3dfx byla po krachu nakonec odkoupena nVidii. Určitě to v něčem nVidii obohatilo, ale nVidia si od začátku dělala svý čipy. 3dfx neustálo příchod RivaTNT/Geforce a Radeonů…

            • Já s tím tak úplně nesouhlasím. nVidia bez 3dfx zvládla v podstatě jen 3 čipy, Rivu, GF256 a čip pro první Xbox a po půl roce od uvedení GF256 koupila 3dfx, které ji „obohatilo“ o spoustu patentů a technologií. Že se akvizice táhla skoro dva roky až do 2002, to je celkem nepodstatné.

            • V podstate 3 chipy? 🙂
              Doporucuji si precist minimalne toto:
              https://cs.wikipedia.org/wiki/GeForce#GeForce_2
              V dobe vydani GF2 byla 3dfx uz temer mrtva firma, ktera nedokazala konkurovat GF2 ani vlastnostmi, ani vykonem. Proto ji nVidia taky koupila za hubicku.
              Xbox chip NV2A prisel az po akvizici 3dfx.
              Rad bych jeste videl tu spoustu patentu a technologii, kterymi byla obohacena koupi 3dfx. Ja vim jen o SLI.

            • mno, minimálně GF2 používala patentovaný 3dfx multitexturing bez ztráty výkonu, tz. že na jedné renderovací pipeline visely dvě TMU. Všechny Geforce měly do té doby uspořádání takové že na každou renderovací pipeline byla pouze jedna TMU. Práve s GeForce 2 se toto změnilo. Naopak Voodoo 4/5 byly první 3dfx karty které toto uspořádání neměly….
              Můžeme se jenom domnívat jestli si NV byla v té době vědoma slabé pozice 3dfx a vědomě toto použila, ostatně kvůli tomu se nimi 3dfx soudilo. Koupí 3dfx všechny tyto případné spory padly….

            • Zminene patentove spory se opravdu tahly od roku 1998, nicmene to nebylo jen o 3dfx versus nVidia, ale take 3dfx ver ATI a 3dfx ver Matrox. Nicmene uz uvedenim TNT2 zacalo mit 3dfx velke problemy, ktere se dale diky spatnym man.rozhodnutim jen stupnovaly. Zda se ale opravdu jednalo o vedome poruseni patentu uz dnes nikdo s jistotou nerekne. Slysel jsem nazor, ze nVidia 3dfx koupila hlavne kvuli tomu, aby „nepadlo“ do rukou ATI. Ale je to uz dlouha doba…nicmene plati to, co jsem psal, 3dfx zadnym prazakladem produktu nVidie nebyl. 🙂

            • tak to slovo „prazáklad“ asi nebylo úplně nejvhodnější formulací od Tynyta. Nvidia měla svoji vlastní samostatnou linii produktů, ale zase nemůžeme ignorovat fakt, že pro ostatní firmy byla 3dfx jakýmsi nedosažitelným ideálem a špičkou herního výkonu. Takže se hodně forem snažilo 3dfx napodobit. Proto také vznikaly ty soudní spory a dnes už nezjistím kdo co okopíroval a kdo ne. Je pravda, že časem tu formu 3dfx jaksi ztratilo, hlavně díky Ballardovi a celé té anabáze s koupi STB a s tím spojeným zdržením nových produktů. To 3dfx nakonec zlomilo vaz.
              Máš pravdu že je to už dlouhá doba…. Sám jsem měl několik Voodoo karet včetně Voodoo 5 5500 a přestože nebyla tak rychlá jako Geforce 2 GTS, byla to v mnoha ohledech lepší karta.

            • PS: ještě jsem chtěl připomenout , že 3dfx koupilo Gigapixel a tím veškeré patenty na TBR , které vlastně v nějaké míře využívá Nvidia od arch. Maxwellu. Samozřejmě neznáme přesné detaily, ale bylo by dost odvážné tvrdit, že Nvidia koupí 3dfx nic nezískala.

  3. Pokud by skutečně do dvou let měli karty konkurující hi-endu Nvidie, tak by to byla bomba a potřebná konkurence. Ale to se uvidí, 2020 tu ještě není a Intel potřebuje mít do té doby plně funkční 10nm výrobu.

    • Souhlas, verim, ze Koduri klidne solidni hardware vyvine, v AMDecku se mu povedla slusna vypocetni grafika, tezko rict, jestli umi i herni, ale s trochou stesti proc by ne. Ovsem optimalizace ovladacu pro hry je druha vec, Intel zadneho ovladacoveho guru nekoupil, aspon jsem to nikde nezaslechl a jejich soucasne ovladace grafiky jsou tragicke.