Jasně ale každý přece musí pochopit že se nemůže pořád zvedat výkon a snižovat spotřeba. Jasně u 5050 nebo 5060 asi možná ano ale u 5070 -5090 to prostě nejde. A myslím že na jeden čip na končí. Pokud teda nebudou zvedat výkon přes AI. Ale myslím že časem nezbude nic jiného než více čipové grafické karty.
Rozhodně se může zvyšovat výkon, tak přece funguje všechen historický vývoj hardwaru díky lepším výrobním procesům.
Každý čip s daným designem má škálu výkonu a spotřeby, na kterou se dá nastavit - nižší nastavení s optimálními frekvencemi a nízkým napětím jsou energeticky efektivní. Zvyšováním napětí se ze stejného čipu dají dostat vyšší frekvence, ale spotřeba roste výrazně rychleji než výkon. Ekonomicky je relativně opodstatněné, když se většina produktu neprodá s těmi nižšími frekvencemi s nejlepším poměrem spotřeba/výkon, protože jít *trošku* do toho neefektivního pásma zvýší spotřebu ještě rozumně a produkt pak má za lepší jednorázovou cenu lepší výkon (i když provoz pak spotřebitele stojí víc). Větší problém je to, když se to žene úplně na hranu. U produktů jako jsou třeba procesory Raptor Lake, že.
Co je tady ale důležité - to, co získáte tím, že vydojíte tu křivku spotřeby brutálně, jsou nějaká procenta výkonu, dejme tomu, že je to třeba posledních 10-15 % výkonu, které ale stojí +50-60 % spotřeby (dost to záleží, někdy ta cena asi může být ještě horší), je jenom jednorázový zisk v té jedné generaci, kde to začnete dělat.
V další generaci abyste si těch +10-15 % udrželi, tak to musíte udělat zase, ale už to nemá nový inkrementální přínos, jenom udržujete ten jednorázový bonus. To, aby se zase o něco zvýšil výkon mezigeneračně, bude zase muset zajistit nový výrobní proces a lepší architektura. Takže v dlouhodobém horizontu nám zvýšení spotřeby na třeba dvojnásobek přinese úplné prd. Za deset let evoluce procesů a architektury zvedne výkon třeba 10x a bude to stejné, i když bude normou spotřeba grafik (ale to samé bude u procesorů) 100-250W, jako když bude norma 300-600W. Ta vyšší spotřeba bude znamenat, že n azačátku byl výkon lepší o 10-15% a na konci taky proti těm grafikám z vesmíru s poloviční spotřebou, ale to bude proti tomu 10x nárůstu výkonu který přinese evoluce architektur a křemíku k ničemu. Jenom za to celých deset let budeme víc platit na elektřině (a komponentech chladičů, VRM a zdrojů - a v nejhorším případě shořeným konektorem/kartou, heh).
Ono taky záleží na tom, jestli se spotřeba zvyšuje trochu, občas, nebo je to v každé generaci o hodně. Teď jsme měli:
2014: 250-275 W 2016: 250-295 W 2018: 250-295 W 2020: 350 W 2022: 450 W 2024/2025: 575 W
Nějakých +30% každé dva roky nevypadá udržitelně ani chytře, IMHO. S tímhle škálováním BTW příští generace highendu od Nvidie vypadá na 750 W a ta další po ní (tj. za čtyři roky ode dneška) těsně pod jedním kilowattem.
Tak mě napadá, zvyšuje se u těch osmiválcových auťáků spotřeba o 25-30 % každé dva roky? :D
No Skretik se s tēmi auty trochu střelil do vlastní nohy. Ano, existují spotřebou vypeckované modely pro zvyšování ega, většinou je ale takové auto jen na to machrování.
Ve skutečnosti se spotřeba aut snižuje a dlouhodobě se řeší technologie jako recyklace splodin apod.
Ad spotřeba : Ano, řeším ekologii, třídím odpady, snažím se kupovat co nejrozuměji balené výrobky, kupuji z různých farem, kde se snaží nehuntovat pole apod. Takže řeším i to, že nechci mít v pokoji kilowattový turbínový přímotop, když chci chvíli zrelaxovat u nějaké hry.
Zároveň si myslím, že skrz pečlivější vývoj a SW podporu by HW mohl být úsporností úplně jinde, to by ale firmy jako AMD, Intel, nVidia, … nesměly chtít hrabat peníze jak krtek tunely(i když ten krtek to na rozdíl dělá k všeobecnému prospěchu).