Úplně jsem nepochopil proč by to měl být problém? Na drtivou většinu aplikací a dokonce i her má stávající iGPU výkonu dost a naopak vidím jako vysoce pozitivní, že podpora driverů bude zřejmě dlouhá - a to je velmi pravděpodobně i důvod pro AMD nestřídá v iGPU architektury jako ponožky. To je IMHO zrovna u grafik v CPU docela požadovaná vlastnost. Kdo chce vyšší výkon, prostě zvolí dGPU (já to ale nebudu, mně bohatě stačí to, co mám v 7840U). Jako další a velký problém vidím to, že tyhle výkonnější iGPU potřebují rychlé paměti, takže souhlasím s tím, že případné navyšování výkonu bude lepší v rámci procesoru řešit separátním grafickým čipletem s nějakou "infinity-GPU-cache."
BTW jsem zvědavý na Intel, jak dlouho ho bude bavit podpora těch jeho neustále inovovaných grafik...
No a když se kouknu kolem sebe, tak většina lidí stejně kupuje notesy s dGPU (byť je IMHO nepotřebují a platí za něco, co nedává smysl, nebo co vůbec nevyužijí). Takže i když i mě osobně mrzí, že tu není rychlý vývoj, tak z pohledu trhu tu tu příležitost pro umístění nových produktů jednoduše nevidím - i kdyby dGPU zdrahly, tak zákazníci sice budou reptat, ale většina nakonec stejně koupí je, protože jsou zvyklí na "notes s nvidií."
Také nevidím problém. Výkonu máme dokonce několik habadějů.
Obecně ale platí princip že rozhoduje trh. Když se výrobce nebude chovat podle toho co trh chce tak bude mít problémy. AMD problémy nemá tak se asi podle toho trhu chová správně. Zcela jiná je otázka je jestli mi to vyhovuje jako uživateli a budu skuhrat.
To se potkali dva zpátečníci.
Trh se chová podle Mooreho zákona.
Výkon je třeba neustále zvyšovat.
Když se zastaví pokrok, tak zákazníci nebudou kupovat novou generaci.
A bez peněz zákazníků nebudou peníze na vývoj. Kruh se uzavírá a končí to smrtí.
Vidíme to na intelu do jakých sraček se dostal jen proto že zamrzl na 14nm.
Už propustil třetinu zaměstnanců.
Pravda že 14nm je pro desktop dostatečné.
Tam velká spotřeba nevadí.
ALE
Vsadím se že v mobilním zařízení máte oba něco novějšího.
Mobilním zařízením myslím něco co běží na baterku. Ne notebook připojený na kabel.
Trh se rozhodně nechová podle Mooreova zákona, a to už dobrých 10 let, kdy tento zákon neplatí ani ve své modifikované podobě.
Výkon jistě je třeba zvyšovat, ale vždy platí, že jej taky musí někdo zaplatit a hlavně musí být potřeba - a to v tomto konkrétním případě prostě neplatí, iGPU jsou závislé na I/O operacích se standardní RAM, a prostě z lejna bič neupleteš a upleteš-li přec, nezapráskáš.
Jak jsem už psal výše, vyšší výkonnostní segment lze obsloužit "dedikovaným" čipletem na vlastním čipu procesoru, takže si vyprošuju hlášky o zpátečnictví a zejména srovnávání situace u AMD s Intelem, u kterého je GPU ta nejméně problematická část a s AMD lze srovnat snad jen naprostou negací všeho.
na drtivou většinu aplikací stačí i GCN VEGA iGPU, touhle optikou bychom se nikam neposunuli, za mě vidím větší problém v tom, že AMD, které si tak rádo hraje na čiplety nevydělilo zlášť multimedia dlaždici z GPU, aby bylo možno navzdory starší GPU architektuře aktualizovat multimediální obvody, encoderý a dekodéry. RDNA3,5 bylo zvláště optimalizováno pro mobilní použití, což (prozatím) u RDNA4 neproběhlo, proto AMD zůstává u RDNA3, což by až tak nevadilo, kdyby bylo možno v průběhu aktualizovat multimediální obvody.
Je třeba to vidět v souvislostech:
- SW aplikace encoderu běžící na CPU vyžere 100% příkonu (řekněme 65W)
- HW kodek nemá žádnou přímou CPU režii, ale sežere řekněme do 10W
- kodek naládovaný jako "AI aplikace" (v podstatě "program" pro hradlové pole) bude mít spotřebu 15W, takže více než HW kodek, ale ne až tak o moc. Za to přinese brutální univerzalitu a poměrně vysokou efektivitu, i do starých modelů půjde nahrát nový kodek.. za mě ideální řešení.
Dříve byl problém s tím, že programovatelná hradlová pole (FPGA) byla separátní čip a byla drahá. Dnes to má prakticky každý mobilní procesor a je velká šance, že to přijde i do desktopu, tudíž cena je už zahrnuta v CPU (a klesá v přepočtu na vyrobený kus s rostoucím objemem výroby)
On je tlak, aby spotřeba při přehrávání médií byla co nejnižší, proto nejen že se neupouští od specializovaných bloků, ale je to oblast, na kterou se dost zaměřují různé optimalizace návrhu pro efektivitu a úspornost (ty low power islandy a podobně). Při recenzích a pro potřeby marketingu se měří doba přehrávání videa na baterku a v posledních letech taky třeba videokonference v Teams, takže by pro výrobce bylo obtížné podniknout krok, který přinese regresi.
Ona uvnitř těch multimediálních enginů asi nějaká programovatelnost je (ale hádám typu DSP, ne FPGA?), protože pro kvalitu videa je dobře, když se dá enkodér ladit a není celkově zadrátovaný. Ale třeba pro efektivní dekódování je ideální mít např. entropy decode jako specializovaný hardware (jako CABAC v H.264 například), IIRC.
"BTW jsem zvědavý na Intel, jak dlouho ho bude bavit podpora těch jeho neustále inovovaných grafik..."
No na to že byl Intel leader v mobilní grafice cca od doby co nějaké cpu s integrovanou grafikou vůbec vzniklo s tím asi nebudou mít problém.
k tomu druhému odstavci, proč si myslíš že většina notebooků s dedikovanou má i tu integrovanou ? kvuli teplotám, výdrži baterie atd.
nechápu proč vůbec sleduješ novinky ze světa hw když ti výkon co máš k dispozici teď stačí :D :D