Nástřel výkonu samostatné grafiky Intel Xe DG1: někde mezi GT 750 Ti a RX 560

18

V databázi 3DMarku se našel test samostatné grafické karty Intel. Ukazuje výkon mezi GeForce GTX 750 Ti a Radeonem RX 460, ale ještě nemusí být finální.

Letos Intel vydá první samostatné grafiky Xe. Sice prý ještě budou jen v noteboocích a klasická desktopová karta do slotu PCI Express na prodej nebude, pořád ale půjde o historickou změnu na trhu, kde nějakých 10–15 let víceméně byly jen Radeony a GeForce.

Na internet teď probublal první nástřel výkonu Intel Xe DG1, neboli Discrete Graphics 1. Mělo by jít právě o první samostatnou grafiku Intelu s 10nm čipem založeným na stejné architektuře, jako integrované GPU v procesorech Tiger Lake. Díky úniku v databázi pro ní máme skóre v benchmarku 3DMark Fire Strike.

Záznam pro GPU, které by mělo být grafikou Intel Xe DG1 našel twitterový leaker Tum Apisak. Karta by asi mohla být zkušební verzí (Software Development Vehicle) do desktopu pro vývojáře her, kterou Intel ukazoval na CES 2020. Jako procesor je totiž použitý desktopový Core i9-9900K; mobilní verze GPU, která se osazuje na desku, by to mohla být jen v případě nějaké specifické testovací platformy využívající CPU do LGA 1151.

3DMark bohužel nedetekoval velikost paměti – ta má být 3 nebo 6 GB – ani frekvence. Podle některých zdrojů by prý Intel Xe DG1 mělo běžet až na 1500 MHz, ale nevíme, zda to byl případ i tohoto testovaného exempláře. Každopádně grafika dosáhla výsledku 5538 bodů v celkovém skóre a 5960 bodů ve skóre jen pro GPU, které nás zajímá více.

Grafika Intel Xe DG1 v testu 3DMark Fire Strike
Grafika Intel Xe DG1 v testu 3DMark Fire Strike (Zdroj: Tum Apisak)

Momentální skóre nejsou moc vysoko, ale nemusí být definitivní

Pokud nemáte úplně představu, kam takováto čísla grafiku Intelu zařazují (což se přiznám nemám také), tak hned ve stejném twitterovém vláknu jsou pro srovnání příklady výsledků dvě GPU, s kterými se toto dá porovnat. Postarší Nvidia GeForce GTX 750 Ti, což byla docela populární a úsporná první generace Maxwellu na 28nm procesu, má Graphics Score 5402 bodů, tedy tento vzorek Intel Xe DG1 by proti ní byl asi o 10 % rychlejší.

Naopak zhruba o 10% vyšší výkon by měl Radeon RX 460 s 4GB pamětí (ta nebyla standardní, výchozí kapacita byla 2 GB), jenž natočil Graphics Score 6513 bodů. Novější verze Radeon RX 560 by měla být typicky ještě o něco rychlejší než RX 460.

S tímto výkonem by tedy Xe bylo někde na spodku GPU použitelných pro hraní. A poměrně daleko od nyní aktuálních modelů jako je GeForce GTX 1650 (případně jeho lepší verze s GDDR6) či Radeon RX 5500 XT (který už ale má vyšší spotřebu, kdežto Xe DG1 asi bude někde mezi 30 a 75 W).

Ovšem pozor: grafika se v systému hlásí jen jako „Generic VGA“, takže toto asi nejsou úplně finální produkční ovladače, ale nějaké testovací. Nevíme, zda se liší jen tím, že ještě neprozrazující finální označení hardwaru, klidně by také ještě nemusely mít všechny optimalizace a vylepšení, tudíž tento výkon ještě nemusí být definitivní.

Intel Xe DG1 Software Development Vehicle

První desktopová grafická karta Intelu, model Xe DG1 Software Development Vehicle (fotogalerie)

Zdroj: Tum Apisak

Nástřel výkonu samostatné grafiky Intel Xe DG1: někde mezi GT 750 Ti a RX 560
Ohodnoťte tento článek!
5 (100%) 1 hlas/ů

18 KOMENTÁŘE

  1. I kdyby byl výkon o 50% lepší, tak je to stále pro desktop jeden velký meh. Pro mobilní počítače zase nesedí TDP, a tedy výkon, jaký to ukazuje, nebude vůbec dostupný.
    A při HW konfiguraci, jakou to reálně má, je obojí jasný fail.

    • Pro desktop to není a TDP nesedí proto, že jediné, co se o té vývojářské kartě dá říci, je skutečnost, že nemá přídavné napájení, tedy nežere víc jak 75 W. Kolik ten čip žere ve skutečnosti, netušíme, ale víme, že stejný počet EU jednotek má i v integrované podobě v Tiger Lake, kde se i s CPU částí vejde do 28 W.
      Jako náhrada lowendových MX notebookových čipů od nVidie to vypadá celkem v pohodě. Nejvyšší MX350 to porazí. A pokud tím výrobci notebooků MXka nahradí, bude to celkem velká část trhu. Jen v Alze mají 198 různých notebooků s MX grafikou.

      • Opakuji, že výkon, jaký to má v PCIe verzi, bez CPU a kdovíjakým TDP, _NEODPOVÍDÁ_ tomu, jaký bude mít integrovaný čip v CPU. Power obálka 28W musí zahrnout i příkon pro CPU (který tak nebude dostupný pro GPU), tady se navíc měřilo s diskrétním i9-9900K.

        BTW, to jako fakt, že srovnáváš nějaký budoucí wannabee produkt intelu s aktuální nabídkou?

        • Opět máte problém se čtením? Můj první odstavec byl jen a pouze o TDP. O tom TDP, které je podle vás vysoké, přestože vůbec netušíte, jaké je. A vyvozujete to jen z faktu, že vývojový karta je ve formě PCIe karty bez přídavného napájecího konektoru.
          Kde vidíte, že bych říkal něco o tom, že integrovaná grafika v CPU bude mít stejný výkon? Ona nebude mít ani podobný výkon a to ani ne tak kvůli TDP, jako kvůli tomu, že nebude mít vlastní paměť a bude limitována tou systémovou.
          Po integraci tohodle čipu na notebookovou desku s nějakou tou svojí pamětí, předpokládám, že výkon bude hodně podobný jako u té PCIe varianty. Můj předpoklad vychází z toho, že když je ta PCIe varianta vývojářským kitem, tak bude co nejvěrněji napodobovat skutečnost. Jaké bude mít TDP, těžko říci, pravděpodobně nebude existovat jen jedna varianta.
          Srovnání s tím, co to má nahradit, je snad naprosto legitimní. Jelikož tu MX350 to porazí o desítky procent, asi nebude záležet na tom, jaký procesor jí zrovna sekunduje. 10nm čipy to nebudou, párovat se bude pravděpodobně s notebookovými 14nm čipy, které to turbo dneska mají už dost podobné, jako ta 9900K, některé dokonce vyšší. A ten výsledek v GPU benchmarku zas tak na výkonu procesoru nezáleží.

          • Nemám problém se čtením. Na TUP mají uvedeno 75W, osobně si ale myslím, že to bude méně, nicméně si zase nemyslím, že to bude méně než 20W, protože použitý chladič, i kdyby byl předimenzovaný, tak ukazuje na TDP okolo 30-50W. To znamená, že to i tak je asi tak 2x tolik, než co zvládne/bude moci odebrat grafika v TigerL, protože ten je limitován 28W, ale na sadu CPU+GPU. Z toho pak logicky plyne, že pokud má architektura už alespoň hrubé obrysy (což by měla mít, pokud je DG1 v roli muly), že onen výkon bude znatelně nižší.

            Tudíž jen (mírně obšírněji a s argumenty) opakuju, co jsem napsal v první reakci, z čehož zase vyplývá, že ten, kdo neumí číst, jsi ty. 😉

            P.S.: s těmi předpoklady bych, být tebou, šetřil. Předpoklad osazení nějaké sideband paměti automaticky znamená poměrně velké náklady (a tedy i cenu navíc). K tomu si přidej, že jak nvidia, tak AMD nebudou mít problém zareagovat a uvést výkonnější řešení, které navíc má výhodu v podpoře, což byl u intelu vždycky tak trochu problém. A nakonec, vždy tu je riziko, že celá tahle anabáze skončí jako kdysi IrisPro – drahá, ne až tak výkonná.

            • Co pořád máte s tím výkonem v porovnání s integrovanou grafikou? O tom jsem snad nikde nic nepsal. Ten výkon z článku je o grafice, co integrovaná v procesoru není. Ta integrovaná v Tiger Lake má výkon podle testů o trochu víc než poloviční.
              Vaše P. S. jsem vůbec nepobral. Viděl jste někdy nějakou notebookovou grafiku mimo CPU, že by neměla svoji paměť?
              Proč to srovnáváte s nějakým IrisPro? To je grafika v procesoru, byť na jiném křemíku. DG1 je ale úplně něco jiného. Je to čip, který je úplně mimo procesor, stejně jako ty MX, GTX a RTX grafické čipy, které se do notebooků integrují.
              O ceně nic nevíme, takže opět děláte závěry, které nemáte vůbec ničím podložené. Intel ví, že když bude chtít prorazit, musí nastavit konkurenceschopnou cenu. A už v minulosti předvedl, že mu to nedělá problém, viz třeba ceny jeho SSD nebo ceny Atomů pro mobily. U těch Atomů to sice úspěch neslavilo, ale rozhodně ne kvůli vysoké ceně.

            • @ Tynynt @RH
              Na tu grafiku se da divat ze dvou stran..
              Pokud by se jednalo o nastrel toho, co chysta Intel na poli dedikovancyh GK tak je to samzorejme dost propadak, pokud to vylozene neni brzdeno driverama, ktere za mesic zvednou vykon o desitky procent nahoru.
              Co se tyce Integrovane grafiky..mozna ze tenhle developmnet kit ani zvysenim TDP vic z toho navrhu integrace nevymackne. Pak ale bude rozhodovat vykon te integrovane. Pokud bude vyssi nez momentalni Renoir na urovni aspon MX350, tak si myslim, ze to neni spatne.
              Na druhou stranu, pokud bude NV chtit (a pry chce), tak stejne uvedem MX450/430 zalozenou na Turingu..coz by mela byt 1650@25W. Da se cekat ze vykonove zase odskoci integracum a vse se vrati do starych koleji, jak je zname. Ale aspon to primeje NV neco delat a profitovat bude zakaznik :))

            • OMG..
              Takže jsme se dobrali k tomu, že
              – integrovaná grafika v TL má výkon o desítky procent horší (a tedy není a nebude žádná zásadní konkurence budoucím integrovaným grafikám – podává výkon jako grafika v 15wattovém Řízku 4800U)
              – dedikovaná „vývojářská“ PCIe grafika nezvládá konkurovat ani roky starým kartám konkurence.

              (a co jsem psal v prvním příspěvku? Přesně tohle – že v desktopu je to odpad a pro notebooky nic zajímavého, protože reálně výkon tohoto vývového boardu bude ponížen kvůli TDP)

              A proč to srovnávám s IrisPro? Protože tos by ty, kdo vytáhl tenhle nesmysl: „Po integraci tohodle čipu na notebookovou desku s nějakou tou svojí pamětí, předpokládám, že výkon bude hodně podobný jako u té PCIe varianty.“ Když si odmyslím důvod, proč bych měl chtít diskrétní intel namísto (velmi pravděpodobně výkonnějších) nvidie nebo AMD, tak ti zbude jen víra, že Intel se bude podbízet cenou – čemuž u tohoto molocha sám nemůžeš věřit. Uvádět zrovna intelovy SSD shity s QLC, které nemá konkurence problém přebít cenou kvalitnějšími produkty s TLC, to je hodně odvážné. Stejně tak ty Atomy, špatná kvalita (viz chcípající serverové Atomy), špatná podpora, omezené instrukce, které zkrátily dobu podpory Windows – prostě zadarmo drahý.

            • tynyt:
              Připadám si, jak když mluvím s retardem.
              To vážně nechápete, že DG1 je samostatný čip, který spolu s pamětí bude integrován na základní desky notebooků? Jelikož je to jeho určení, tak to těžko bude jinak, bez ohledu na to, jestli tomu věříte nebo ne.
              A že jste si všimnul, že Intel vyrábí SSDčka až v době, kdy přišel s QLC, je dost smutné. Já si jeho první SSDčko koupil v roce 2011 a ne proto, že bych toužil zrovna po Intelu, ale právě kvůli ceně.
              A ještě k tomu QLC. Přečtěte si nějakou recenzi 660p z toho roku 2018, kdy to Intel uvedl, a uvidíte, jak všichni chválili cenu a doporučovali ho. V té době nic tak levného široko daleko nebylo. Dneska je konkurence už lepší, ale pořád je třeba v Alze nejlevnější 1TB NVMe ten od Intelu. Tedy evidentně Intel je schopen držet cenu dole. A to, že existuje lepší konkurence (ať už ve formě té nVidie nebo ve formě TLC čipů), je právě důvodem, proč tu cenu dole je ochoten držet.
              Jinak s těmi Atomy opět pindáte o něčem, co s tou cenou nesouviselo. Intel tu cenu Atomů do mobilů nastřelil tak nízko proto, že se chtěl prosadit na trhu, ne proto, že by serverové Atomy chcípaly (ty rozhodně tak levné nebyly).

            • OK, asi jsem teda retardovaný – jaký je tedy rozdíl mezi diskrétní PCIe grafikou a „samostatným čipem integrovanou na základní desku notebooku?“ Já žádný rozdíl nevidím. A proč bych měl volit zrovna nevyzkoušeného „nováčka“ intel? Zkus mi to vysvětlit, pokud teda vůbec jsi toho bez invektiv schopen.

              Co se týká SSD, tak první jsem nasazoval ještě v dobách WinXP, někdy kolem roku 2007 (přesně si to už nepamatuju, ale vím, že jsme tehdy kupovali 60GB myslím od Sandisku). Ale ohánět se předraženou alzou, to je tak trochu sranda, že? QLC nebylo nikdy nejlevnější – alespoň ne v obchodech, kde nakupuju já.

              No a na téma Atomových CPU pro mobily – ilustroval jsem na příkladu ostatních Atomových modelů, jaké to byly shity. Atom pro mobily měl těch problémů taky dost, od slabé podpory po poměrně slabý výkon a velmi pomalý inovační cyklus.

            • tynyt:
              Rozdíl mezi tím co vám popisuju a diskrétní grafikou v notebooku není žádný. To jen vy jste se hrozně podivoval, že ta grafika bude mít svoji paměť. Viděl jste snad někdy nějakou, která by svoji paměť neměla?
              Že byste si tu grafiku měl koupit vidíte kde? On je dost rozdíl mezi tím, že je Intel je schopen dodávat a prodávat a tím, že byste si ji měl koupit zrovna vy. Já si ji taky nekoupím, stejně jako si nekupuju notebooky s MX, GTX či RTX grafikou a vystačím si s tou integrovanou v procesoru.
              Proč mi říkáte, že jste si v roce 2007 koupil 60GB SSDčko od Sandisku mi nějak uniká. Koupil jste si ho proto, že bylo levnější než Intel nebo co tím chcete říci? Já jsem tím svým nákupem ukazoval, že už před těmi 9 lety prodával Intel levná SSDčka.
              Nějak taky nechápu vaši námitku proti Alze. Kdybyste si stěžoval, že preferuje Intel a prodává ho s menší marží, než ostatní výrobce, tak bych to ještě chápal, ale argument, že je drahá, nějak nepřebíjí ten fakt, že je tam Intel nejlevnější.
              Schválně jsem se podíval tedy i jinam. U czc je Intel druhý nejlevnější (cenově ho o stovku poráží QLC Crucial), v Mironetu je Intel nejlevnější. Asi na tom, že prodává svá SSDčka levně, něco bude, i když vy samozřejmě vytáhnete nějaký „svůj“ eshop, kde ho ani prodávat nebudou.
              A s těmi Atomy je to totéž. Proč vykládáte, jaké jsou to shity, když vám na tom demonstruju, že Intel je schopen i ochoten jít s cenou dolů?
              Nikdo vás nenutí, abyste si shiťáckej Intel kupoval, ať už v jakémkoli produktu. Ale přestaňte tady lhát.

  2. mvladar 6.5.2020 at 10:52
    Intel sa už pripravuje na veľkú ofenzívu GPU, AMD čakajú kruté časy. Ideálny variant pre hráčov bude podpora integrovanej grafiky + dedikovanej karty. Údajne chce Intel vzkriesiť aj mostíkové zapojenie /SLI/, to bude almázia.

    Aznohh 6.5.2020 at 17:01
    Ty tvoje PR texty čím dál víc připomínají jednoho DDemagoga z opačného tábora. 😀
    Intel se do highendu dalších x let nepodívá. Co momentálně chystá pro “hráče” jsou lowendový srágory do ntb, aby z nich vyštípal Nvidii.

    mvladar 6.5.2020 at 23:05
    Kdepak, to bude inak…

    LOL!