Intel kvůli ploše (výrobní technologii a zastaralosti architektury) moc na výběr neměl. Teď už by se sice mohl vrátit k jen velkým, ale tím by současně přiznal, kde byl opravdu problém. Asi se z teorie čím vyšší takt tím lepší CPU dostali do stavu čím víc jader tím lepší CPU a celkem neřeší, jestli to zákazníkům pomůže a nebo spíš zkomplikuje život.
Těmi LP jádry nemyslím E-Core, ale obdobu toho, co má Intel v SoC čipletu mobilních Meteor Lake a Arrow Lake - LP E-Core, která mají za cíl snížit klidovou spotřebu a zlepšit výdrž na baterku tím, že se na můžou offloadovat takové ty lehké procesy na pozadí a jednoduché aplikace, a nemusí se kvůli tou pak probouzet velká jádra co při boostu mají poměrně vysoko spotřebu = Low Power Island
AMD taková LP pomocná jádra má v patentech a podle toho Keplera_L2 tuším by možná v Medusa mohly být. Ale ono se na základě patentů spekulovalo i že by je mohlo mít Strix Halo a tam se to zdá se nepotvrdilo, takže bych s tím úplně nepočítal ani pro tu generaci Medusa/Zen 6.
"Tak mohli zaříznout ta velká a dělat vše na malých" to je blbost, protože s nimi zas nedosáhnou stejného jednovláknového výkonu. Dokonce i kdyby je vyhnali na stejný takt, nepomůže to a ještě tím zničí jejich efektivitu. To se rovnou můžete divit výrobcům mobilů, proč v nich jsou 2 nebo 3 typy jader.
Jakože všechny algoritmy bez vyjímky jde paralelizovat stejně efektivně? Dobrý vtip. Navíc ten jednovlákový výkon je součást paralelního víme? Prostě je snadnější provozovat 8 vláken na výkonných jádrech než na 16 až třeba 24 výrazně slabších. Nehledě na nižší režii za komunikaci mezi jádry. A i kdyby něco teoreticky šlo, pořád tady jsou mraky starších aplikací a her.
Kolik takových co nejdou efektivně paralelizovat znáte? Já tedy neznám. Znám jenom případy kdy se programátoři ne a ne naučit programovat multithrevové aplikace. Aplikace co opravdu potřebují výkon jsou paralelizované. U ostatních nemá smysl ani paralelizace ani maximalizace výkonu na singlethreadu.
Tohle mi připadá jako dobrá výmluva takových lenivých programátorů co se nechtějí přizpůsobit novému stylu práce. Ono to nejde a pak se najde ten pověstný "blbec" co dokáže jak to jde.
Prosím ten příklad kde to nejde efektivně paralelizovat a fakt je potřeba výkon.
Třeba hodně šifrovacích algoritmů je neparalelizovatelných. Obecně jsou to všechny algoritmy kdy výsledek jednoho kroku je zároveň zdrojovou hodnotou následujícího kroku. Překvapivě je třeba omezeně paralelizovatelná např komprese videa - obraz se dělí na bloky a nejde použít víc jader než je počet bloků (což u aktuálních kodeků je tak 16)
Myslím že tohle se nedá kategoricky říct. Když to přitáhnu za vlasy, tak tímhle argumentem byste mohl "dokládat", že je kravina dělat zvlᚍ GPU a CPU, protože POŔÁDNÝ inženýr by udělal čip, který umí oboje dvoje.
Existuje naopak zásada nebo princip, že pro určitou úlohu je většinou efektivnější na ni specializovaný nástroj (GPU na grafiku) než nástroj obecný (CPU). No a tenhle princip JE aplikovatelný na procesory. Jednovláknové a málovláknové aplikace mají jiné nároky než mnohovláknové. Takže je logické, že jádro, které nebude úplně univerzální, ale optimalizované směrem na ty jednovláknové aplikace bude zase na oplátku méně efektivní (na plochu, energii) v těch mnohovláknových - a naopak jádro optimalizované na MT výkon je kvůli ohledům na spotřebu a plochu horší v jednovláknovém. (Univerzální jádro bude mít menší ta negativa, ale menší i ta pozitiva).To, čemu říkáte "okleštění jádra" může právě být zefektivnění pro MT úlohy.Před big.LITTLE procesory bylo tudíž dilema, kterým směrem raději jít. big.LITTLE je koncept, který to dilema řeší tím, že vám dá to nejlpší z bou světů - na E-Core větší efektivitu pro mnohovláknové aplikace, a P-Core má uvolněné ruce k tomu, aby se snažilo maximalizovat jednovláknový výkon skutečně festovně.
Z tohohle důvodu JE opodstatnění pro big.LITTLE/hybridní architektury procesorů. Nemusí samozřejmě všechny implementace být skvělé (když mají jednotlivá jádra odlišnou instrukční sadu, tak to je chyba) nebo se vám zamlouvat, ale není to něco, co je jasná slepá ulička.
Dá se s tím souhlasit, ale s tím že je rozdíl v důvodech, proč takové rozdělení kdo dělá. ARM u mobilních potřeboval jak výkon, tak maximální exektivitu a to jedním jádrem udělat prostě nejde.
AMD si odvodilo c jádra pro specifickou část trhu.
Intel nedokázal vyrobit výkonné jdro dot malé, aby jich v procesoru mohl být dostatečný počet. Tehdy na plochu velkého jádra dostali 4 malé. A je tu jiné zajímavé srovnání - velké jádro Intelu mělo dvojnásobnou plochu proti výkonově srovnatelnému AMD ZEN. A to byl hlavní problém. A je dokázáno, že malá jádra Intleu byla efektivní plochou ale spotřebou moc ne. Tedy něco úplně jiné než ARM. Vždy je třeba vidět souvislosti.
To není nijak přitažení za vlasy s tím GPU a CPU. Přece jenom GPU a CPU dělají dosti rozdílnou práci. Ale i tak přece existuje trend to vše dávat dohromady.
Dříve byly koprocesory. Ty byly zvlášť proto, že dělali jedinečné věci které neuměl procesor tak rychle zvládnout. Tady bylo dělení dle funkcionality ne dle výkonu. Časem koprocesor zanikly a jejich funkci zvládají standardní procesory.
U GPU to je podobné jako u koprocesorů. Přece jenom ta kvanta výpočtů a přesouvání ohromného množství dat nebylo to pravé pro procesory ani pro grafické chipy. Tak vnikly akcelerátory které následně zanikly a jejich převzaly GPU.
Nyní se snaží o integraci GPU a CPU což bylo dříve nemyslitelné.
Obecně s Vámi souhlasím. Chybu Ve Vašem uvažování vidím, že ignorujete tu integraci která specializované funkce integruje do jedné jednotky. Ohledně efektivních a výkonných jader vidím jako krok zpět, že rozdíl je ve výkonu. Kdyby někdo vymyslel speciální procesor na generování čichových vjemů počítačem tak tomu rozumím. Ale tohle je nesmysl.
Nakonec AMD mi to potvrdilo i tím když zrušilo dvě rozdílné architektury pro výpočetní a herní jednotky. Přiznalo chybu a vše staví na společné architektuře.
Prostě výkon neberu jako důvod postavit jiné jádro ale jako slepou cestu toho výkonného nebo toho efektivního. Hybrid je byl a bude vždy problém.
U koprocesoru je to složitější. Myslíte především matematické tedy FPU, jenže ono jich existuje trochu víc. Jen pak byly součástí čipové sady a nebo pak přímo v procesoru. Jednalo se o procesory urychlující datové přenosy: Intel 8089 - IBM ho do PC nepoužilo, ale byl součástí 16 bit unixových stanic spolu s 8086 a volitelným FPU 8087. Označení 89 už pak Intel nepoužil, ale obvod se pochopitelně dál vyvíjel a užíval jako součást jiných obvodů...
Další samotné byly Memory Management Unit (MMU). Vezmu příklad Motoroly Pro 68020 byl externí 68851. Tento obvod mimojiné zajišťoval ochranu paměti - jeden program nemohl bez povolení zapisovat do oblasti v RAM jiného programu. Pro multitasking v Unixu nutnost. (proto multitasking na Amize zpočátku mohl způsobovat nestabilitu). 68030 už MMU integroval. 68040 k tomu přidal i FPU.
Důvody proč byly ty obvody zpočátku samostatně tkví jak v možnosti volby pro zákazníka tak i v tom, že to tak bylo levnější na výrobu.
Ani ne koprocesory stále existují, ale jako součást většího celku. A ta paralelizace tak rychlá zas nebyla. když to vezmu u Intelu. První CPU + FPU v jednom byla 80486 na cca 100 MHz maximálně v dost jednoduchéčisté CISC konfiguraci s jedinou ALU. První dvoujádro v jedné patici Pentium D (tedy P4) s maximem 3,8 GHz. Dost velký rozdíl.
Vaše vnímání toho, co AMD udělalo jako chybu dokazuje jednu věc. Nikdy se nedá zavděčit všem. Když AMD mělo jeden čip pro herní, WS i výpočetní použití - Vegu, tak si hráči ztěžovali na spotřebu. Prostě obvody navíc, které vylepšovaly výpočetní použití, znamenaly tranzistory navíc.
Takže AMD oddělilo grafickou a výpočetní linii, aby je mohli lépe optimalizovat. Pochopitelně tehdy nemohli vědět o nástupu AI a dalších prvků, jako je dopočítávání snímků a rozlišení, zož změnilo nároky na GPU...
To co ale plánují, nejsou další obojetné čipy jako VEGA. Jen budou mít víc společných prvků, ale dál budou separátní grafické a výpočetní.
Ale no tak. Je ti jeden podstatný vliv a to je zisk ostatní jsou jenom líbivá kosmetika. Architektury vyvíjejí společnosti které byly založeny za účelem zisku. Když to cosi co označujete jako "další vliv" nemá pozitivní vliv zisk tak na ten "další vliv" zanikne. Když tohle pravidlo poruší společnost tak zanikne nebo ji koupí někdo kdo se pravidlem zisku řídí.
Sejměte ty svoje růžové brýle.
Tohle je skutečně přitažené za vlasy - CPU v běžných počítačích jsou typicky "univerzálové" - tak to bylo, je, a bude. Sice tu existují výjimky, např. mobilní procesory, nebo Mac, ale tam jde vždy o zásadní úkrok od univerzality užití buď směrem k enormním úsporám v idle, nebo optimality platformy jako takové, což je ale vykoupeno neduhy jako uzavřeností, neschopností pokrýt veškeré funkční aspekty, popř. závislostí na výrobci HW.
big.liitle pak v podání Intelu je něco strašlivého. Papírově to vypadá dobře a jsou i případy, kdy se to chová dobře. Jenže.... pak narazíš na případ, kdy to pořádně nefunguje a v kombinaci se subjektivně neustále "lagujícím" strojem máš touhu ten kus modrého crapu prohodit oknem.
Osobně si myslím, že tenhle "pokus" intelu bude jeho posledním - ukáže se, že to je pažravý nesmysl, který bude skutečný výkon postrádat - zazáří možná v krátkodobých MT testech (onen CB), ale v dlouhodobé zátěži se projeví vysoká neefektivita příliš mnoha jader.