Pokud Arc měla být konkurence alespoň pro nižší a střední segment, pak nevidím důvod, proč by měli dál vyrábět Arc, když můžou použít RTX. Toto by byl příliš nákladný "koníček" pro CEO Intelu a podle mě to zaříznou, jen teď chtějí doprodat co vyrobili a tak nechtějí děsit potenciální zákazníky a akcionáře, je potřeba salámová metoda...
24. 9. 2025, 09:57 editováno autorem komentáře
Také to tak vidím. Informace se musí veřejnosti dávat po kapkách jako lék. Lidem a hlavně akcionářům se musí dát čas to strávit. Jinak hrozí zácpa a nebo naopak pořádná stračka.
Dedikované GPU to mají spočítané. Nikdy nevydělávaly a už ani nebudou. S integrovanými to bude zajímavé. Intel už omezil ladění ovladačů pro hry a na zobrazovadlo stačí licencovat GPU pro mobily, s čímž už má zkušenosti. Ve vyšších modelech přibude čiplet s nVidia GPU. Nebude to hned, nějakou dobu budou stávající GPU jádra dojíždět a v produktech se recyklovat.
Tak nejak to asi bude. A ta zla nVidia zase vydela balik. :-D
25. 9. 2025, 11:33 editováno autorem komentáře
- "Whose graphics is this?"
- "It's the Arc, baby!"
- "Whose Arc is this?"
- "It's Intel's"
- "Who is Intel?"
-"Intel is dead, baby, Intel is dead."
:-)
Doufám, že ti jednou zvládnu vysvětlit, že Intel chceš a potřebuješ, jinak se ti AMD úplně utrhne ze řetězu jako s 9800X3D.
Asi je to ale marný viď.
V čem se AMD utrhla z řetězu s 9800X3D ?
Já jen že ten procák mám, tak abych věděl,...
A Intel to nepoloží, ti si budou vyrábět dál pro OEM a podíl budou mít ještě dlouho vysoký, takže bych se tak o Intel nebál
24. 9. 2025, 15:50 editováno autorem komentáře
Hele to jsou fanoušci, to je něco jako katolíci a islamisti, jim prostě nevysvětlíš že bůh/72 panen neexistuje. Oni prostě za každou cenu chtějí aby intel a nVidie padla i když ví, že by to pro ně byl konec. Oni prostě intel a nVidii nenávidí ze své podstaty a logiku v tom nehledej.
Ale to je jen top. Pro normální lidi je hlavní cena ostatních modelů. A mimochodem kdyby na AMD netlačil jako konkurence Intel, tak se vakuum zaplní výrobci ARM. Qualcomm Snapdragon X Elite v době vydání měl dokonce *v emulaci* výkon v x86 větší než odpovídající modely Intelu. S poloviční plochou čipu. Ano, AMD bylo a je lepší, ale ve firmách je snazší u IT dohodnout Mac nebo Qualcomm než AMD, protože Intel je má zaháčkované a ARM ISA nebere jako přímou konkurenci.
24. 9. 2025, 16:31 editováno autorem komentáře
Mícháš jabka s hruškama, 9800X3D je jasný poukázání na high end user desktop.
Qualcomm v tom segmentu zatím neměl žádnou šanci.
24. 9. 2025, 16:41 editováno autorem komentáře
A teď realita. Qualcomm Snapdragon X Elite byl i v emulaci x86 rychlejší než odpovídající modely Intelu, s poloviční plochou čipu. Nezapomeň, že má tu emulaci hardwarově akcelerovanou. Tedy mainstream uživatel si polepšil i v x86 programech a hrách. Ano, s AMD by si polepšil více, o tom se nehádám.
Tak 9800x3d určite nieje delo, skorej lacný chudobný susedko 9950x3d, takže tak pre Frantu z Mostu :D
K téme, keď Intel dGPU+CPU prežijú tu veľa ľudom praskne žilka, hhh
25. 9. 2025, 00:23 editováno autorem komentáře
Tak to pozor, ten zlom přijde velmi rychle a bude brutální. Stejně jako přišla rychle finanční nouze, přijde rychle a razantně i pokles prodejů.
Už dnes se intel jen fasuje, u nás v práci spousta lidí už vyloženě reptá. Ani ten OEM nevydrží věčně, o tom by ti mohl vyprávět Dell, jak nakonec musel začít dělat servery s AMD doopravdy, ne jen naoko.
Bohužel to, co dělalo platfomu x86 tak atraktivní, tj. souboj více NEZÁVISLÝCH vývojářů CPU, kteří nakonec v rámci crosslicensingu sdíleli své nejlepší výtvory, je zřejmě passé. Věřil jsem Propan-Butanovi, že to dá, ale zdá se, že je už pozdě. Možná malá jiskřička naděje pro Intel tady ještě je, ale nemyslím si, že to dá, bohužel. Butan měl nastoupit místo marného Gelsingera se zpětným zrcátkem...
Ani se nesnaž. :-D Je to marný, asi jako když budeš přesvědčovat jeptišku o neposkvrněném početí. :-D :-D :-D
Marný je Intel, už asi půl dekády. Reflexe nula, schopnost aktivovat vnitřní obrodu taky nula. Time is up!
@DWCZ: S 9800X3D se AMD ještě neutrhlo, to teprve přijde. Ale jinak máš pravdu. Jenže tynyt jí má bohužel taky.
Ak skončia samostatné grafické karty Intel Arc, tak to nebude spôsobené touto spoluprácou, ale neschopnosťou Intelu spraviť dobré grafické produkty. To čo doteraz Intel vydal v oblasti grafických kariet je nedostatočné, či už po stránke ovládačov, ale aj po stránke samotnej efektivity GPU čipov. Jednoducho nestíhajú za konkurenciou. Takže buď sa výrazne zlepšia, alebo to môžu zabaliť. Lenže biznis s GPU je dnes vďaka AI strojovému učeniu zlatá baňa, takže by som Intelu neodporúčal rezignovať na vývoj výkonných, samostatných GPU. Ak s týmto GPU segmentom skončia, tak vlastne zahodia svoju budúcnosť do koša.
Čo sa týka Intel iGPU v rámci notebookov a PC, tak predpokladám, že spojenie Intel CPU a nVIDIA GPU bude len v obmedzenom, malom množstve produktov. Zvyšok ponuky Intelu bude aj naďalej riešený cez ich vlastné iGPU riešenia. Takže žiadna veľká zmena paradigmy v tejto oblasti nenastane.
No a v serverovej oblasti to bude podobné, budú tu nejaké nové špecifické produkty vyvinuté v rámci tejto novej spolupráce, ale zvyšok serverovej línie produktov Intelu pôjde po starom.
Jistě, tato spolupráce je vyústěním toho, že Intel dlouhodobě nezvládá dedikované GPU. Pro uživatele se nic nemění. Už teď má Intel dGPU market share 0 %. Strojové učení je ošemetné. Kdy ta bublina praskne? Nalít miliardy dolarů a za 2 roky přijít s produktem s křížkem po funusu? Intel už nemůže vyhazovat tolik peněz.
S koncem dedikovaných GPU se omezí vývoj i integrovaných. Už teď Intel pro ně zrušil optimalizování pro hry. Takže vlak bude dál ujíždět i v iGPU. Je tedy docela reálné, že jako zobrazovadlo bude licencovat mobilovou grafiku, s čímž už má zkušenosti, a pro vyšší modely nabídne přidání čipletu s nVidia GPU.
V serverovém segmentu mají Intel procesory GPU? Asi jen nějakou ořezanou, takže taky stačí licencovaná levná GPU pro mobily. Produkty s čiplety nVidia nedávají smysl, když jak AMD, tak nVidia sami nabízí serverové grafiky s integrovaným CPU ARM. Pro stejný výkon zabírá méně plochy, méně žere a je levnější než x86. I pro AMD, které neplatí za licenci.
24. 9. 2025, 17:34 editováno autorem komentáře
Za mě: křemík je mrtvej a čím dřív si to všichni uvědomí, tím líp pro ně.
Jestli je budoucnost novej materiál nebo kvanťáky to asi nedokáže zatím předvídat nikdo.
Co se týče AI, za mě je to velkej průser, ale co už, holt je algoritmizace teď v módě po desetiletích ve stínu.
24. 9. 2025, 17:55 editováno autorem komentáře
Křemík je "mrtvej" tak maximálně pro zoufalé fanboyíky intelu.
Ve skutečnosti nemáme zatím náhradu - cokoliv postavené na uhlíku (nanovlákna, grafen) nebo dokonce molybdenu je zatím hudbou daleké budoucnosti a spojeny ještě s větší technologickou náročností.
A ty tvé "kvanťáky" ve skutečnosti nejsou a nikdy nebudou náhradou klasických PC nebo serverů, na to jsou principy jejich fungování a účel použití na hony vzdáleny.
"AI" tu vždycky měla a má své místo, už desítky let. Že se dnes objevují nové aplikace neuronových sítí, které mohou prakticky využívat i běžní mudlové, to je podle mě naprosto OK, je to jen další krok v evoluci. Dřív faktor toho, že je malá "neuronka" zadrátovaná v nějakém DSP nebo hradlovém poli, řešili jen nerdové anebo odborníci na specifické technické disciplíny. Pro mudly to byla "krabička co dělá 'to-či-ono' a co je v tom, to neřešim." Dnes je moderní mít "AI" i v záchodové míse...
"A ty tvé "kvanťáky" ve skutečnosti nejsou a nikdy nebudou náhradou klasických PC nebo serverů, na to jsou principy jejich fungování a účel použití na hony vzdáleny."
Zatím nebyl důvod používat je pro klasické výpočetní úlohy. To se může snadno změnit.
Ohledně tvé stati o uhlíku a molybdenu - ano, křemík začíná narážet na očividné fyzikální limity a pokud nechceme jít cestou menších než nano procesů, přišel čas do toho objevování nástupce pořádně šlápnout. Zatím na to lepíme cache, ale to jen prodlužování agónie.
25. 9. 2025, 08:59 editováno autorem komentáře
Těžko se to snadno změní,když křemík je tak levný a kvantové počítače tak drahé. Pořádně šlápnout do toho zkusili mnozí a přišli o všechno.
A ani nikdy nebude. Zkus si něco o tom přečíst, protože kvantové počítače mají svým způsobem práce blíže analogovým počítačům než těm "klasickým" kde se operuje s diskrétními hodnotami. Konkrétně z historie je lze považovat za moderní verzi pravděpodobnostních počítačů. V podstatě se jedná o nedeterministický automat, kde místo výsledků dostaneš množinu výsledků s pravděpodobnostní mapou. K vyhodnocení takových výstupů pak běžně potřebuješ klasické PC. :-)
Ohledně materiálového inženýrství si ti dovolím připomenout, že uhlíkové struktury jsou o cca řád menší, než ty křemíkové. Takže ano, skýtá to možnosti dalšího vývoje, ale zároveň z technologického hlediska to staví daleko náročnější překážky než křemík. Takže operovat s tím, že křemík je problém a nové materiály jednodušší, je zcela mylné.
Lepení cache řeší úplně jiné problémy než zmenšování procesů, ty řeší problém frekvenční bariéry, která nemá s použitými materiály prakticky nic společného, jde o energetický problém, tedy elementární fyzikální jev, přeneseně problematiku energie praktické (a inherentně nedokonalé) implementace Diracova pulzu v číslicové technice.
Jen doplním, že křemík má úžasnou výhodu, že izolant pro izolační vrstvy je snadné vyrobit a dobře "drží" k normálnímu křemíku. Izolantem je totiž jeho oxid. U jiných materiálů budete "lepit" různé prvky k sobě.
Osobně si myslím, že křemík se ještě užije. Tyhle řeči se plkaly už před 10 lety a najednou přišly čiplety, vrstvení, efektivnější keše a najednou si dnešní lowend utírá zadel 10 let starým hiendem jako dříve.
Já neříkám jednodušší, já říkám nutné. To je rozdíl.
Ohledně kvantových počítačů ti oponovat nemůžu, nemám ani jak, jejich vývoj není ve zrovna pokročilé fázi.
Budu ti oponovat:
1. nemyslím si, že to je "nutné", myslím si, že pro křemík se najde ještě spousta berliček, které ho došťouchají k dalším výkonovým metám při zcela optimálních nákladech (v porovnání s "postkřemíkovými kandidáty")
2. Rozhodně se nepasuju na znalce kvantových počítačů, u kterých mám jediný přesah, a to jsou věci týkající se bezpečnosti asymetrického šifrování a rychle se blížícího bezpečnostního průseru. Nicméně: ještě před pár lety vědci uchcávali nad 4QuBitovým QC, tak včera jsem koutkem oka rekognoskoval že v Ově mají na univerzitě hned vedle Karol1ny 24QuBitový stroj.. takže ono to tak nějak jede vývojově vpřed docela pekelně rychle, každé přidání "spolehlivého" QuBitu znamená exponenciální růst výkonu...
Pre Ladis:
Takmer každá vaša veta je absolútna kravina! Intel bude namiesto svojho vlastného iGPU riešenia kupovať drahé riešenie od iných firiem a implementovať ich do každého svojho produktu? Nebuďte smiešny! Jednoduché iGPU si dokáže Intel vyvinúť sám nech je v akejkoľvek kondícii. ;) Takže v drvivej väčšine svojich CPU SoC produktov bude aj naďalej mať Intel svoje vlastné iGPU. Tu sa určite nič nezmení. Predstava, že teraz Intel hodí do koša svoje vlastné iGPU aby ich nahradil tak, že začne kupovať nVIDIA GPU alebo GPU od inej firmy je absolútne hlúpa a nezmyselná.
AI trh nie je bublina ale budúcnosť IT priemyslu a bude tu dlhodobo. Toto je nespochybniteľný fakt.
Intel bez výkonných, vlastných AI GPU riešení nemá budúcnosť. Budúcnosť patrí firmám ktoré budú participovať na produktoch pre AI strojové učenie, tam sú totiž veľké peniaze.
V serverovej oblasti Intel zapracuje do svojich CPU NVLINK pre lepšiu spoluprácu s nVIDIA GPU. To je zmyslom ich pripravovanej spolupráce, aby Intel predával viac svojich CPU do AI serverov.
To, že jste něco nepochopil, neznamená automaticky, že je to kravina. Očividně jste nepochopil vůbec nic.
V samotném článku, který komentujete, je jasně řečeno, že Intel BUDE kupovat řešení od nVidia. Já pouze teoretizuju, že bez plnohodnotného vývoje vlastních GPU jejích architektura, sdílená s integrovanými, bude dále zaostávat. Už teď je oficiální, že pro integrované grafiky přestane dělat optimalizace pro hry. Takže se dostaneme do stavu, že dříve či později Intel iGPU bude horší než komoditní IP (Intellectual Property), přitom ho vývoj bude dál stát peníze.
AI tu s námi bude pořád, ale hardware konkurence se mezitím dále zlepšuje, včetně softwarové vrstvy. Intel bude vždy pozadu, nejen za NV, ale i AMD. Těch pár výsledných karet pak prodá bez marže, stejně jako teď akcelerátor Gaudi 3 Dellu.
Intel samozřejmě má budoucnost i bez karet pro strojové učení. V consumer řešení má funkční akcelerací inference, vykonávání naučených modelů. Pro učení má sice pomalejší řešení přes AVX-512, ale zas k tomu CPU dokáže připojit 10x více paměti než nVidia (první verze nového modelu je neoptimalizovaná a v dalších krocích se zmenšuje). Cpát se někam, kde mu to nejde, si už několikrát vyzkoušel. Ale teď už na to nemá peníze.
NVLink už zákazníci dávno používají v serverech, např na IBM Power. A důvod, proč pro připojení mnoha GPU se skoro vždy používá AMD EPYC, je I/O čiplet, přes který jde všechna komunikacemi (jedna jediná root doména pro všechna zařízení). To Intel nemá.