Power Limity nové generace GPU Nvidia jsou až 800 W. I méně drahé karty můžou brát okolo 400 W

40
Nvidia GeForce RTX ilustrace 1600
Nvidia GeForce RTX, ilustrace
-
Zdroj: Nvidia

Power Limity pro grafiky s čipy AD102, AD103, AD104 a AD106 ukazují na značný mezigenerační nárůst spotřeby u GeForce RTX 4000.

Koncem léta nebo začátkem podzimu přijdou na trh první grafiky GeForce RTX 4000 s novou architekturou Nvidie (která se jmenuje buď Lovelace, nebo Ada – ještě není úplně jisté, co je oficiální). V dřívějších dobách z Nvidie před vydáním unikaly informace o chystaných GPU zřídka, u RTX 4000 ale je takových průsaků docela dost. Aktuálně tu máme nové informace o spotřebách karet, u nichž to bohužel zase vypadá na hodně vysoká čísla.

Informace opět pocházejí od leakera s přezdívkou Kopite7kimi, který byl dosud nejspolehlivějším zdrojem – poskytoval informace o modelech grafik Ampere, později potvrzené, s velkým předstihem. Údaje, které o chystaných GeForce RTX 4000 zatím vynesl, se postupně měnily, což však může odrážet to, jak se postupně měnily nebo konkretizovaly plány Nvidie.

Power Limit čipů AD102, AD103, AD104 a AD106

Nyní Kopite7kimi uvádí, jaké by měly dle současných plánů být limity spotřeby (Power Limit) pro grafiky Lovelace. Hodnoty Power Limitu nemusí být stejné jako oficiální celková spotřeba karty, asi by mohly být nastavené výš. Je proto možné, že grafiky budou mít při referenčních parametrech nižší TDP (spotřebu karty) než následující Power Limity. Tyto Power Limity jsou mimochodem údaje pro všechny komponenty karty, tedy nejen GPU, ale i paměti, VRM a všechno ostatní.

Nejvýkonnější GPU z generace Lovelace, čip AD102, vypadá nejhrozivěji. Údajně má mít Power Limit až 800 W (ještě před dvěma lety, před vydáním grafik Ampere, jsme považovali za rozumné maximum 300 W…). To neznamená, že takto vysoko půjdou všechny karty. Na tomto čipu totiž Nvidia založí model GeForce RTX 4090, ale zřejmě by ho také mohla používat extrémní grafika Titan, kterou prý firma opět chystá, poté, co ji v generaci Ampere vynechala. 800W hodnota tedy může patřit k Titanu a GeForce RTX 4090 pro normálnější klientelu by mohla být rozumnější (ale pořád by v horším případě mohla třeba dolézt až k 600 W). Na druhou stranu to z těchto čísel alespoň vypadá, že Nvidia snad opustila úvahy o rovnou 900W kartě, které prý také existovaly.

Druhý čip v řadě, AD103, který má pohánět model GeForce RTX 4080, má mít Power Limit až 450 W. Předchozí zpráva od Kopite7kimi kartě RTX 4080 přisoudila TDP 420 W, takže buď se spotřeba nenavýšila, nebo na tom je vidět, že spotřeba uváděná ve specifikacích jako „Total Graphics Power“ (Nvidia jí říká TGP, my ze setrvačnosti píšeme TDP) opravdu může být menší než Power Limit.

Nvidia GeForce RTX 3090 Ti ukázaná během prezentace na CES 2022 1600
Nvidia GeForce RTX 3090 Ti ukázaná během prezentace na CES 2022. Již tato karta má TDP 450 W (zdroj: Nvidia)

Na AD103 mají být opět založené nejvýkonnější grafiky Lovelace pro notebooky – tedy (mobilní) GeForce RTX 4080 či možná 4080 Ti. Kopite7kimi uvádí, že ty budou mít uměřenější apetit, jako maximální Power Limit pro ně má platit „jen“ 175 W (také ovšem pamatujeme časy, kdy bylo normální maximum notebookových GPU 100 W a Nvidia si zakládala na tom, že mají výkon „srovnatelný“ s desktopovou verzí). Power Limit dnešního modelu GeForce RTX 3080 Ti pro notebooky by také měl být 175 W (150 W TDP + 25 W Dynamic Boost 2.0), takže zde se možná spotřeba zvyšovat nebude.

Karty s čipem AD104, na kterém bude založena například GeForce RTX 4070 pro desktop, nebudou o moc zaostávat. Mobilní verze má také mít až 175W Power Limit a desktopové karty mají mít Power Limit až 400 W. U těchto poměrně masově prodávaných modelů je tedy pravděpodobný značný nárůst spotřeby. Zatímco GeForce RTX 3070 měla slušné 220W TDP, model RTX 4070 by asi mohl být o hodně výš. Přímo 400 W to, jak už bylo řečeno, nemusí být (to by ale pak eventuálně mohl brát nějaký model RTX 4070 Ti).

Nižší mainstream s kartami GeForce RTX 4060 by asi měl být založený na čipu AD106. Pro ten Nvidia nyní prý plánuje Power Limit 260 W (přitom GeForce RX 3060 má TDP 170 W). Mobilní verze bude mít Power Limit 140 W.

Kopite7kimi v tweetu uvádí, že si nemyslí, že tyto limity spotřeby budou kartami využité beze zbytku – to znamená, že TDP mohou být nižší. Myslí si to i web VideoCardz, podle kterého by tyto Power Limity možná mohly odpovídat tomu, co bude maximální povolená spotřeba při přetaktování, nebo by tyto hodnoty mohly uvádět strop spotřeb pro nereferenční grafiky s továrním přetaktováním – tedy to, jak vysoko mohou výrobci zvýšit TDP, zatímco referenční karty by měly TDP nižší.

V generaci Ampere byly Power Limity u referenčních karet, zdá se, stejné jako TDP (u RTX 3090 Ti 450 W, u RTX 3090 350 W, u RTX 3080 320 W), ale u předchozích generací to vždy neplatilo. Nicméně nereferenční verze mívají Power Limity zvýšené, takže je možné, že čísla od Kopite7kimi uvádějí hodnoty pro OC karty, a ne pro rozumnější referenční konfigurace.

Nicméně asi vše nasvědčuje tomu, že po plošném zvýšení spotřeb u generace Ampere toto Nvidia udělá u generace grafik Lovelace znovu. Pomůže to sice k dosažení vyššího výkonu, ale zhoršení spotřeb každé dva roky se nezdá být moc rozumným trendem. Nvidia ovšem má na trhu dominantní postavení a zřejmě dokáže určovat, co bude bráno jako standard.

Zdroje: Kopite7kimi, VideoCardz

Power Limity nové generace GPU Nvidia jsou až 800 W. I méně drahé karty můžou brát okolo 400 W
Ohodnoťte tento článek!
4.6 (91.11%) 9 hlasů

40 KOMENTÁŘE

    • chiplety nemaji na emitovane teplo zadny vliv. nevim kde se porad tenhle pomerne primitivni fyzikalni nesmysl bere. jestli je jeden velky cip, nebo dva mensi o celkove plose velkeho cipu, je uplne jedno. taky to muze byt horsi protoze chiplety potrebuji propojovaci logiku.
      chiplety zvysuji vyteznost, a umoznuji delat ruzne casti cipu ruznymi procesy.

            • DWCZ 20.6.2022 at 15:16
              Spotřeba?
              Tady máš odpadní teplo. Na odpadní teplo potřebuješ chlazení.

              DWCZ 20.6.2022 at 12:14
              „Však, to co jsem napsal nemá s teplem nic společného“

            • DWCZ 20.6.2022 at 15:16

              Nechápu co tím chceš říct. . Však spotřeba = teplo.

            • Tak to vysvětli. Nejdřív píšeš, že „Brát můžou co chtěj, ale ne u mě v PC.“ A pak napíšeš „Však, to co jsem napsal nemá s teplem nic společného“
              Chápu to tak, že brát si můžou co chtěj – spotřebu.
              Jenže spotřeba = teplo. Tak mi to vysvětli…

            • A co chceš vysvětlovat? Já už nevim jak ti to vysvětlit. odpadní teplo si odvedeš chladičem, za kterej zaplatíš jednou. Spotřebu řešíš kontinuálně, protože to zaplatíš na každým vyúčtování.

              Mně je úplně jedno, kolik má karta stupňů v zátěži, to si vyřeším ve skříni. Není mi ale jedno, kolik její provoz bude ročně stát.

              Mně zajímá, jak je architektura efektivní, ne jak je horká. V současnosti, kdy je v kurzu async compute by to asi mělo zajímat všechny.

            • No jo… Problém je v tom, že ty si za slovo „teplo“ můžeš dosadit slovo „spotřeba“, což je totéž. Takže pokud jsi psal o spotřebě, psal jsi o teple. A to teplo si nevyřešíš ve skříni. Maximálně si můžeš vyřešit teplotu čipu, ale rozhodně ne teplo. Teplo potom budeš řešit v bytě/domě/místnosti.

  1. Je to jednoduché, pokud jim tyhle karty lidi kupovat nebudou tak příští generace se vrátí se spotřebou zpět.

    Pokud o ty 400W+ grafiky bude velký zájem tak zase příští generaci bude většina 500W+.

    • Každý vidí len spotrebu ale už sa nerieši výkon. Sám viem porovnať spotrebu GPU na rozlíšení 2560×1600 s Vsync a spotrebu na rozlíšení 5120×1440. Ak bude dajme tomu výkon dvojnásobný na vyššom rozlíšení s lepším pomerom výkon na watt, prečo nie? Spotreba sa dá obmedziť, iste pôjde dole aj výkon, ale treba zistiť aký je pomer výkon watt nová a stará grafika.

      • Jistě, ale jak víš, přechází se na nové a nové procesy a ty původně slibovaly zvýšenou efektivitu. Jenže se zjišťuje, že pomalu narážíme na fyzikální limity a na ty budeš muset nějak zareagovat.

        Zareagovat tím, že budeš argumentovat, že se zvýšil výkon a ten přece můžeš zkriplit na požadovanou úroveň spotřeby lze asi jen stěží. To si tu novou kartu nemusíš kupovat.

        • Ona ta efektivita ve smyslu výkon/watt vzroste, jenomže výkon oproti minulé generaci vzroste o víc než je nárůst výkonu na watt a proto to bude žrát víc.

          Hlavní otázka je jestli opravdu za to extra navýšení výkonu stojí spotřeba nad 400W+ , podle mě vůbec.
          Kdyby to mělo max 300W a nárůst výkonu se hold zmenšil o 10-15% tak si nemyslím že by se kdokoliv zlobil.

          • „Jenomže výkon oproti minulé generaci vzroste o víc než je nárůst výkonu na watt a proto to bude žrát víc. “

            Tohle jsi snad ani nemusel psát ne, z pomocné je tu snad jen Dědek a pár dalších.

            Což teda pár slovy znamená nižší energetickou efektivitu na takt.

            V ideálním světě bys měl dostat dvojnásobný výkon s totožnou, ideálně nižší spotřebou třeba. NVIDIA nežije v ideálním světě.

            Pro mě tohle znamená v podstatě jediné – hozenou rukavici RDNA 3. Tak uvidíme, jestli ji zvednou.

          • Nemyslíte si, že by se kdokoliv zlobil? Já bych se tedy zlobil, kdyby přišli s novým vyrobnim procesem a nová řada by přinesla pouze 10-15% výkonu? Proč bych si vůbec tu kartu měl kupovat kvůli 10-15%.. jakože jooo místo 60 fps mám 66 pouze za 30tis nebo jak?

  2. Hmm, když tak ale uvažuji, je maximální spotřeba karty problém? Není mnohem důležitější výkon na 1W? Pokud hrajete už dnes nějakou hru na 60 FPS a upgradnete na novou grafiku, spotřeba se vám nijak nezvýší, ale naopak sníží, protože vám podstatně klesne její vytíženost. Pokud je tedy výkon na 1W nové grafiky vyšší, samozřejmě. Aspoň tak bych to viděl teoreticky.

    Samozřejmě pokud budete chtít hrát na plné detaily a ve 4K, tak tu kartu zatížíte, ale v tom případě je to zas o tom si snížit detaily a nebo holt zkousnout spotřebu.

    Moje pointa je v tom, že kdyby výrobce snížil TDP karty na 300W, tak pro standardní hraní se nic nemění a žrát vám to bude stejně, akorát nebudete mít výkonnostní rezervu pro 4K.

    Samozřejmě pokud se bavíme o Renderingu, tam už je to věc jiná, tam jede GPU na max, ale tam spotřebu zaplatí klient, takže to až tak nevadí 🙂

    • „Moje pointa je v tom, že kdyby výrobce snížil TDP karty na 300W, tak pro standardní hraní se nic nemění a žrát vám to bude stejně, akorát nebudete mít výkonnostní rezervu pro 4K.“

      Co to je standardní hraní? A proč by měl výrobce snižovat takty, co by z toho měl uživatel? Má pak cenu vydávat výkonnější karty?

      Jak rezervu? Grafika má zvládat 4K s rozumnou spotřebou normálně, od toho snad máš jednotlivé výkonnostní třídy. Jenže je rozdíl, když top tier bere 300 a když 600 W.

      Pokud NV tohle projde, je mi úplně jasné, jakou mají incentivu pracovat na snížení u dalších řad.

    • mám RX 580 undervolt na 1200 mhz/920mV a mem controller na 820mV, všechno co hraju(1080p) dám na stabilních 60 na střední/vysoké nastavení(hra od hry), spotřeba 75W(čistě karta), když budeme brát střední třídu(což rx 580 byla), dá mi třeba taková rtx 3060 minimálně x2 výkon při x2 spotřebě aby se dalo hovořit o alespoň stejné efektivitě? asi těžko, když 3060 má spotřebu 160-170W a výkon cca 30-100% lepší oproti rx 580(opět hra od hry, hlavně dnes už to bude o dost menší procentuální rozdíl vzhledem k tomu že zatímco u AMD se výkon s novějšíma ovladačema zlepšuje tak u NV to spíš stagnuje)