6C modely mají samozřejmě své opodstatnění, jako jej měly kdysi 2C nebo 2C/4T modely Intelu (natož třeba skvělé low-power AMD Athlon 200GE modely pro NASy apod.). Na kancelářské využití je to skvělé optimum pro dnešní OS a aplikace a naopak nedává smysl se připravovat o segment levných PC, tím spíše, že to jsou v podstatě "odpadky" z výroby,
Mě spíše těší to, že "sweet spot" se postupně posunuje od 8C k 12C, i proto, že (inherentně dražší) dvoučipletová řešení si sebou nesou pro některé typy aplikací zátěž úzkého (resp, užšího) hrdla při context-switchích mezi jednotlivými CCD - a to vše navzdory pokrokům v kvalitě schedulerů.
Prostě: blíží se doba, kdy standardem bude 12C a pozdějí 16C stejně, jako je dnes "standard" 8C.
Nikdo nechce, ale v dobách XP ty 2C/4T fungovaly naprosto v pohodě.
Já mám třeba v práci teď taky notes s i3 (ačkoliv mi byl nabízen lepší), protože jsem chtěl totéž, co dostávají běžní uživatelé - ty důvody jsou nejen technické/praktické, ale taky je to určitý vzkaz těm užovkám - ale to odbočuju. Chtěl jsem tím říct, že dnes jsou intelí i3 sračky s E-mrdkami, bezesporu, ale pracovat se s tím dá a výkonově to je jako starší mobilní i5 se 4C/8T. Ano, poweruser, který každý den prosévá hromady dat a počítá agregace využije lepší CPU, ale většina lidí dnes má PC přesně na totéž jako v dobách XPček - na poštu, word, jednoduché excely a ERP klienta. Ano, Teams a Chrochrochrome jsou strašlivé bastly, ale ty potřebují spíše hodně RAM než rychlý CPU.
A pak tu jsou ty počty. Když máš řekněme 20 tisíc užovek, kterým musíš pronajmout počítač na operák, tak si sakra rozmyslíš, jestli zvolíš PC o 50 USD dražší (a to je spíše spodní hranice), protože pak se úspory počítají za jeden leasovací cyklus v milionech..
Dovolím si citaci od konkurenčního redaktora.
No-x:
"dosavadní (na pouzdru) samostatně stojící čiplety propojené vodiči skrze organické pouzdro čipu nahradí těsné spojení křemíkem s nižšími latencemi, nižšími energetickými nároky a nižší plochou aktivního křemíku."
Tolik k tomu úzkému hrdlu v ZEN 6.
Jaké fyzikální důvody tomu zabrání?
Vzdálenost? Která bude stejná.
Latence? Která bude díky lepším taktům menší.
IOD ZEN 6 vyrobené na 3nm bude rychlejší než CCD ZEN 5 vyrobené na 4nm.
Se podívejte jaké latence má V-cache.
Stejné jako L3 i když je na jiném kusu křemíku.
Jo teoretický rozdíl tam je. Ale nikde se to neprojeví. Testy 9850X3D jasně dokazují že se to chová jako jeden kus křemíku. I když to jsou tři kusy.
Uvidíme jak si povede 16core proti 12core.
Já tvrdím že 16core bude ve všem lepší.
Přesto že tam budou dvě CCD.
Uvidíme.
Na testy ZEN 6 se těším.
Obzvlášť na ty s více CCD.
Dávám si upozornění do kalendáře na rok 2027.
Pravda a čas jsou kamarádi.
Tak mě poučte o fyzice.
Ať víme jak jste to myslel.
Z psaného textu není poznat jestli to myslíte ironicky nebo vážně.
O poučení od Tynyta nestojím.
Předvedl velké mezery už v jiných oblastech.
Včetně fyziky.
23. 2. 2026, 15:03 editováno autorem komentáře
Počítejme s frekvencí řekněme 2GHz, což je shodou okolností frekvence Infinity Fabric.
Tj. hodiny na této lince "tiknou" 2 miliardkrát za sekundu, tedy jeden bit může být dlouhý nejvíce převrácenou hodnotu tj. 5e-10 sec. A to pomineme pány Nyquista, Shannona a Kotělnikova plus teorém jednotkového skoku (resp. Diracova impulsu), kteří nám tu dobu ještě PODSTATNĚ zkrátí, protože tu máme přechodové jevy (tedy náběžná a sestupná hrana nejsou a nebudou nikdy kolmé), ale budeme počítat pouze s touto optimistickou hodnotou.
No a teď to přijde. Rychlost světla. Plusminus shodná s rychlostí elektřiny, tedy 3e8 m/s. Jestliže má signál proběhnout v rámci stejného hodinového cyklu, je zcela zřejmé, že v tom bude hrát roli čas. výše uvedené časové okno nám při starém dobrém vzorci s=v*t řekne, jaká je nejdelší cestička, po které se signál dokáže dostat do cíle, aníž by vypadl z cyklu, protože opravdu nechceme hodiny, které nikdo neposlouchá. A vychází nám, že max. vzdálenost je 3e8 * 5e-10 = 0,15m, tj. např. paměťový slot, který jede 1:1 s IF nemůže být dále, než nějakých 15 cm (teoreticky), prakticky to jsou jednotky cm, cca menší polovina.
Takže: zatím co uvnitř čipu můžeš škálovat frekvence interconnectů, cache, apod. daleko výše, protože ty vzdálenosti se dnes běžně měří na desetiny milimetrů, v případě propojení čipletů už měříš v řádech jednotek až desítek milimetrů, a tomu pak odpovídají i reálně dosahované rychlosti, respektive frekvence.
Ano, můžeš tuto nepříjemnost částečně potlačit tím, že použiješ víceúrovňovou cache, multiplexor-demultiplexor apod., ale to vše stojí křemík a hlavně to ne vždy funguje (cache např. ten obsah musí včas mít, aby byla efektivní).
Takže (opět): výkon roste, to je nepopiratelné, ale roste organicky, tj. všude, i v těch jádrech, nejen na jejich propojích. A když si představíš takový typický jev jako je context-switch, kdy jedno jádro odevzdá v rámci multitaskingu celé vlákno jinému jádru, tj. musíš uložit, přesunout a zase naplnit registry, cache kódem a daty atd., tak ti vyjde, že šoupnout tohle v rámci CCD bude vždy "levnější" než šoupnutí na vedlejší CCD. Kdo má zkušenosti s vícesoketovými servery, ví o čem je řeč, tam je to velmi dobře patrné, protože ty vzdálenosti jsou ještě větší a leckdy musí jít vše dokonce přes kopírování v hlavní RAM, kdy jednotlivé sokety CPU mají své DIMM sloty a přístup k nim se děje přes "cizí" procesor. Opět: ano, moderní schedulery v OS se s tímto snaží nějak vyrovnat, ale ne vždy to jde a ne vždy je více CCD ku prospěchu věci.
Jenže ty cestičky nejdou (skoro) nikdy přímo (propoje jsou na celé ploše čipu, ne jen na jeho okrajích). I když srazíš CCD těsně k sobě, musíš zajistit, že např. datová sběrnice musí mít všechny cesty všech vodičů stejně dlouhé.
Koukni se např. jak jsou vedeny cestičky na PCB od CPU k RAM, nebo k PCIe - zjistíš, že různě zatáčí - tak, aby ty co jsou geometricky blíž, to nakonec měly "stejně daleko" jako ty, co jsou geometricky dále.