Úplně jsem nepochopil proč by to měl být problém? Na drtivou většinu aplikací a dokonce i her má stávající iGPU výkonu dost a naopak vidím jako vysoce pozitivní, že podpora driverů bude zřejmě dlouhá - a to je velmi pravděpodobně i důvod pro AMD nestřídá v iGPU architektury jako ponožky. To je IMHO zrovna u grafik v CPU docela požadovaná vlastnost. Kdo chce vyšší výkon, prostě zvolí dGPU (já to ale nebudu, mně bohatě stačí to, co mám v 7840U). Jako další a velký problém vidím to, že tyhle výkonnější iGPU potřebují rychlé paměti, takže souhlasím s tím, že případné navyšování výkonu bude lepší v rámci procesoru řešit separátním grafickým čipletem s nějakou "infinity-GPU-cache."
BTW jsem zvědavý na Intel, jak dlouho ho bude bavit podpora těch jeho neustále inovovaných grafik...
No a když se kouknu kolem sebe, tak většina lidí stejně kupuje notesy s dGPU (byť je IMHO nepotřebují a platí za něco, co nedává smysl, nebo co vůbec nevyužijí). Takže i když i mě osobně mrzí, že tu není rychlý vývoj, tak z pohledu trhu tu tu příležitost pro umístění nových produktů jednoduše nevidím - i kdyby dGPU zdrahly, tak zákazníci sice budou reptat, ale většina nakonec stejně koupí je, protože jsou zvyklí na "notes s nvidií."
Také nevidím problém. Výkonu máme dokonce několik habadějů.
Obecně ale platí princip že rozhoduje trh. Když se výrobce nebude chovat podle toho co trh chce tak bude mít problémy. AMD problémy nemá tak se asi podle toho trhu chová správně. Zcela jiná je otázka je jestli mi to vyhovuje jako uživateli a budu skuhrat.
To se potkali dva zpátečníci.
Trh se chová podle Mooreho zákona.
Výkon je třeba neustále zvyšovat.
Když se zastaví pokrok, tak zákazníci nebudou kupovat novou generaci.
A bez peněz zákazníků nebudou peníze na vývoj. Kruh se uzavírá a končí to smrtí.
Vidíme to na intelu do jakých sraček se dostal jen proto že zamrzl na 14nm.
Už propustil třetinu zaměstnanců.
Pravda že 14nm je pro desktop dostatečné.
Tam velká spotřeba nevadí.
ALE
Vsadím se že v mobilním zařízení máte oba něco novějšího.
Mobilním zařízením myslím něco co běží na baterku. Ne notebook připojený na kabel.
Trh se rozhodně nechová podle Mooreova zákona, a to už dobrých 10 let, kdy tento zákon neplatí ani ve své modifikované podobě.
Výkon jistě je třeba zvyšovat, ale vždy platí, že jej taky musí někdo zaplatit a hlavně musí být potřeba - a to v tomto konkrétním případě prostě neplatí, iGPU jsou závislé na I/O operacích se standardní RAM, a prostě z lejna bič neupleteš a upleteš-li přec, nezapráskáš.
Jak jsem už psal výše, vyšší výkonnostní segment lze obsloužit "dedikovaným" čipletem na vlastním čipu procesoru, takže si vyprošuju hlášky o zpátečnictví a zejména srovnávání situace u AMD s Intelem, u kterého je GPU ta nejméně problematická část a s AMD lze srovnat snad jen naprostou negací všeho.
na drtivou většinu aplikací stačí i GCN VEGA iGPU, touhle optikou bychom se nikam neposunuli, za mě vidím větší problém v tom, že AMD, které si tak rádo hraje na čiplety nevydělilo zlášť multimedia dlaždici z GPU, aby bylo možno navzdory starší GPU architektuře aktualizovat multimediální obvody, encoderý a dekodéry. RDNA3,5 bylo zvláště optimalizováno pro mobilní použití, což (prozatím) u RDNA4 neproběhlo, proto AMD zůstává u RDNA3, což by až tak nevadilo, kdyby bylo možno v průběhu aktualizovat multimediální obvody.
Já si právě myslím, že specializovaným multimediálním kodekům odzvonilo, že je dříve či později nahradí AI jednotky, které se do CPU dostávají. Sice to nebude tak extrémně účinné jako účelově navržený obvod, ale bude to masivně univerzálnější, postačí "nahrát" decoder/encoder.
specializované multimediální jednotky tam nejsou kvůli tomu že by to nešlo enkódovat/dekódovat jinak ale kvůli efektivitě - u dekodérů hlavně kvůli spotřebě. Dokud univerzály budou žrát víc elektriky (jako že v dohledné době budou) tak tam budou specializované multimediální jednotky.
Je třeba to vidět v souvislostech:
- SW aplikace encoderu běžící na CPU vyžere 100% příkonu (řekněme 65W)
- HW kodek nemá žádnou přímou CPU režii, ale sežere řekněme do 10W
- kodek naládovaný jako "AI aplikace" (v podstatě "program" pro hradlové pole) bude mít spotřebu 15W, takže více než HW kodek, ale ne až tak o moc. Za to přinese brutální univerzalitu a poměrně vysokou efektivitu, i do starých modelů půjde nahrát nový kodek.. za mě ideální řešení.
Dříve byl problém s tím, že programovatelná hradlová pole (FPGA) byla separátní čip a byla drahá. Dnes to má prakticky každý mobilní procesor a je velká šance, že to přijde i do desktopu, tudíž cena je už zahrnuta v CPU (a klesá v přepočtu na vyrobený kus s rostoucím objemem výroby)
On je tlak, aby spotřeba při přehrávání médií byla co nejnižší, proto nejen že se neupouští od specializovaných bloků, ale je to oblast, na kterou se dost zaměřují různé optimalizace návrhu pro efektivitu a úspornost (ty low power islandy a podobně). Při recenzích a pro potřeby marketingu se měří doba přehrávání videa na baterku a v posledních letech taky třeba videokonference v Teams, takže by pro výrobce bylo obtížné podniknout krok, který přinese regresi.
Ona uvnitř těch multimediálních enginů asi nějaká programovatelnost je (ale hádám typu DSP, ne FPGA?), protože pro kvalitu videa je dobře, když se dá enkodér ladit a není celkově zadrátovaný. Ale třeba pro efektivní dekódování je ideální mít např. entropy decode jako specializovaný hardware (jako CABAC v H.264 například), IIRC.
Souhlas, plus bych dodal komerční aspekt - výrobci potřebují prodávat, takže něco jako “nový kodek” jim hraje do karek - mají možnost prodat nový produkt.
"BTW jsem zvědavý na Intel, jak dlouho ho bude bavit podpora těch jeho neustále inovovaných grafik..."
No na to že byl Intel leader v mobilní grafice cca od doby co nějaké cpu s integrovanou grafikou vůbec vzniklo s tím asi nebudou mít problém.
k tomu druhému odstavci, proč si myslíš že většina notebooků s dedikovanou má i tu integrovanou ? kvuli teplotám, výdrži baterie atd.
nechápu proč vůbec sleduješ novinky ze světa hw když ti výkon co máš k dispozici teď stačí :D :D
No jo, hlavní problém bude v tom, že lidi automaticky předpokládají, že integrovaná grafika = šunka a dedikovaná je vždycky lepší, i když je to úplně stejná šunka jako ta zmíněná MX150.
MX150 stala prd a clovek si mohl i na levnem stroji matlat kod pro CUDU.
Uprimne mi je uplne u zadele jake iGPU mam, pokud to umi nakrmit 8K@120Hz a akcelerovat prehravani videa. Na vypocty to nikdy nebylo kvuli neexistujici podpore, na to byla vzdycky nvidia
Tak ona ta integrovaná 780 umí "nakrmit" i WUXGA displej při hraní BF4 - je to sice stará hra, ale i to se počítá. Na CUDA tak nějak kálí bílý tesák, to používá ani ne 1 % uživatelů.
"Tuto oblast (handheldů) teď dost možná ovládne Intel s procesory Panther Lake"
Přímotop v ruce běžící na baterku :-)
Určitě ne na intel 18A procesu, který je srovnatelný s TSMC 4nm.
Uvidíme jak se to bude chovat když to vyrobí TSMC na 2nm..
Panther bude možná slušný železo a jelikož nebude vyhnaný do nesmyslu, takže asi i efektivní. Ale pokud dopadnou ovladače, jako vždy, bude to jedno. HW slabší SD se Steam OS opět pojede lépe.
Ten 1.8nm proces Intelu se považuje za obdobný spíš k 3nm TSMC. S možnou výjimkou nižších dosažitelných frekvencí u Intelu (když se člověk podívá na Arrow Lake a Panther Lake).
já bych řekl že nejde jen o densitu a max dosažitelné frekvence, ale taky o to, jak úsporný daný proces je a v tom je GAA lepší jak Fin-Fet
Ono je to prosté, v procesorech s malou grafikou nemá vyšší verze GPU smysl, protože zvyšuje výkon věcí, které na malé grafice stejně nebudete používat, například raytracingu. Jinými slovy, zvýšila by cenu, ne použitelnost. Verzi 5 dostane herní verze procesoru Medusa, kde to bude samostatný čiplet.
V desktopových Ryzenech, které mají vestavěnou malou grafiku na prosté zobrazování, je stále RDNA verze 2. Jednoduchá a laciná.
28. 1. 2026, 10:53 editováno autorem komentáře
Za tie roky som integrovanú grafiku v ryzene (am5) ani neaktivoval v biose, takže je mi fuk čo tam majú :D
IGPU ve stolním PC je trošku fetish ne ? :D
EDIT: nevěděl jsem že amd je tak cheap že nemá verzi bez igpu, moje chyba.
6. 2. 2026, 13:13 editováno autorem komentáře