Proč a jak lžou testy spotřeby grafických karet

Povíme si, kde se při porovnávání spotřeby karet v recenzích dělají chyby a jaké a nač byste měli si při čtení výsledků v testech pamatovat a na co si dát pozor. Ve druhé polovině článku najdete unikátní podrobné srovnání spotřeby devíti karet v Medal of Honor.

Co a jak je špatně v testech spotřeby

Konečně jsem se dostal k tomu, abych přebral a zpracoval další výsledky, které jsem naměřil v Medal of Honor při testování grafických karet. Než začnete v diskuzi lamentovat, že to mohlo být už v samotném testu, vězte, že mám také jiný důvod proč se spotřebou zabývat trochu šířeji a v samostatném článku.  Měření spotřeby ve hrách si zaslouží trochu omáčky kolem, a v šestistránkové recenzi by se jí určitě nedostalo takové pozornosti ze strany čtenářů. Budu se snažit, abyste se s podobnými a troufám si říci, že unikátními grafy průběhu spotřeby na Extrahardware setkávali co nejčastěji. Na rozdíl od běžného způsobu měření, který se v recenzích obvykle používá, lze s touto metodikou dosáhnout přesnějších výsledků i podstatně lepší představy o reálné spotřebě počítače při hraní.

Asi není třeba zdůrazňovat, že prakticky všechna měření, která v recenzích najdete, se týkají celé sestavy. Na ˜„spotřebě karet“ v grafech se tedy podílejí i ostatní komponenty. I bez nečekaných výkyvů může nepřesnosti v měření způsobit už samotný procesor – u výkonnějších grafických karet může být kvůli většímu množství výpočtů vytížený víc, než v případě slabší grafiky. To nejspíš nijak neovlivníme ani neeliminujeme. Na druhou stranu to ani není žádoucí. Jestliže pořídíte výkonnější grafiku, musíte počítat s tím, že bude více  zaměstnávat procesor a s tím poroste i spotřeba celého systému, právě to, co nás v důsledku zajímá.

Reklama

Obvykle se v lepším případě setkáte s měřením spotřeby v konkrétním místě hry. V horším případě vám recenzent naservíruje jen maximální hodnotu, které sestava dosáhla během celého testu. Při tomto způsobu už se nezohledňuje, že se PC nemuselo na tuto špičku dostat vinou grafické karty, ale mohlo na ni vyskočit kvůli nenadálému zatížení procesoru či pevného disku ze strany jiných aplikací běžících na pozadí či samotného systému.

Dalším „drobným“ nedostatkem, který běžné grafy s výsledky měření spotřeby nezohledňují, je skutečnost, že každá z porovnávaných hodnot je dosažena při jiné snímkové frekvenci a každá z karet má při dané spotřebě jiný výkon. To lze částečně kompenzovat zařazením grafu s poměrem výkon/watt. Pokud máte i nějaký lepší návrh, jak z toho vybruslit, sem s ním.

Větší teplo, větší spotřeba

Při měření záleží také na tom, kdy a jak dlouho po spuštění zátěže spotřebu měříte. Se zvyšující se teplotou jádra totiž stoupá i spotřeba karty – pro příklad se stačí podívat na průběh spotřeby po spuštění MSI Kombustor, ve kterém spotřeba až do ustálení teplot stoupá, přestože kartu zatěžuje stále stejně náročnou scénou. Vliv závislosti teploty na spotřebě je vidět už na začátku grafu, kde se spotřeba vyhoupne nahoru a poté, kdy se ventilátor začne točit rychleji a teplota jádra o něco klesne, spadne i spotřeba.

graf závislosti spotřeby a teploty v msi kombustor

Mimo jiné z tohoto grafu také vyplývá, že výsledky měření spotřeby u dvou stejných karet s odlišně výkonným chlazením nelze označit za srovnatelné.

Průměr spotřeb lépe vypovídá o reálné spotřebě sestavy při hraní. Při něm se špičkových hodnot, podle kterých se jinak grafiky často hodnotí, dosahuje jen výjimečně. Podle grafů z Medal of Honor, které uvidíte dále, by se hodnocení podle maximální spotřeby nemuselo zdát jako velký problém. Ale tento titul je vedle dalších her spíše výjimkou. Kromě grafické karty velmi intenzivně vytěžuje i procesor. Spotřeba celé sestavy se tak dostávala na hodnoty, které u jiných her jen tak neuvidíte. Křivka spotřeby v zátěži (potažmo spotřeba sestavy) v průběhu animace kolísá méně, než tomu bývá v jiných hrách. Svůj podil na tom má právě vyšší zátěž procesoru, kvůli které má změna spotřeby grafiky na spotřebu celé sestavy menší vliv.

Jako příklad pro srovnání, jak to také může vypadat, ale vezmeme ještě měření z Far Cry 2 a Crysis:

spotřeba ve far cry

Přesnější představu o rozdílu mezi měření špiček a průměrné spotřeby získáte z následujících tabulek:

 

Crysis Warheadprůměrná spotřebamaximální spotřebarozdílodchylka
GeForce GTX 470406,1 W450,0 W43,9 W10,8 %
Radeon HD 6850306,6 W311,0 W4,4 W1,4 %

 

Far Cry 2 (ranch medium)

průměrná spotřeba

maximální spotřebarozdílodchylka
Radeon HD 5850279,5 W289,0 W9,5 W3,4 %
Radeon HD 6850271,7 W283,0 W11,3 W4,2 %
GeForce GTX 470388,8 W419,0 W30,2 W7,8 %
GeForce GTX 460320,5 W345,0 W24,5 W7,6 %

 

Pokud bychom brali v potaz jen špičkovou spotřebu, GeForce by mi kvůli jednomu výraznému vteřinovému výkyvu od průměru vycházela kromě 100W rozdílu, který udělá rozdíl průměrů, ještě o 39,5 W horší, protože Radeon při své špičce v nejkritičtějším místě od průměru uskočil jen o 4,4 W.

Ve Far Cry 2 je rozdíl o něco menší, přesto to ale dělá téměř 20 W. V Medal of Honor už je průběh o něco klidnější, ale o tom už dále.

Další články na téma: 
Oblíbené Tisk E-mail
Reklama

Komentáře

Za dobrou práci je potřeba pochvala, takže chválím a jsem rád že na to máte už čtyři ruce(třeba ubudou bezesné noci). Ty grafy kde se přepínaj ty dvojce jsou k nezaplacení. Jenom mi tam chybí GTX460 1GB vs HD6850 1GB.

+1 :)

jinak vřele doporučuji při hodnocení karet přejít od okamžitých hodnot k hodnotám integrálním.
u měření spotřeby jsou to tedy Watthodiny/Wattvteřiny (vpodstatě Jouly), což je v přesně ta jednotka na kterou vám chodí účet za elektřinu a průběh snímkové frekvence (FPS) doplnit počtem snímků, které karta za celou dobu testu vykreslila.
Jednoduše pak dokážete ohodnotit kolik Wattvteřin celá sestava spotřebovala za daný časový úsek a na kolik Wattvteřin přišel v průměru jeden snímek :)

Na měření Watthodin jsou nejlepší indukční elektroměry, proto je také dodavatelé elektřiny stále používají, ale jistě se dá pořídit i nějaký ten měřák digitální ;)

Díky za článek.

Keď tak pozerám na tie ploché krivky spotreby, tak ten integrál si ľahko hocikto zráta s minimálnou nepresnosťou. ;) Navyše, možnosť vidieť nejaké anomálie sa vždy hodí, takže priebeh môže byť užitočnejší. :) A priemerná snímková frekvencia je vlastne súčet všetkých vykreslených predelené časom, takže všetko to čo žiadaš tu máš.

průměrná FPS o ničem nevypovídá, stejně jako průměrná mzda.
Pokud by zde byla použita průměrna FPS jak uvádíte, pak není problém úvést celkový počet snímků, které karta za daný časový úsek vykreslila. Bohužel se obávám, že tady se pojem průměrna FPS používá pro průměrnou hodnotu diskrétních měřeních okamžité snímkové frekvence a to zcela jistě není počet snímků vydělený časem a tedy celkový počet snímků, které karta vykreslila znám není.
První grafické banchmarky spočívali v tom, že byl přesně dán počet a obsah snímků, které má grafická karta spočítat a měřil se čas za který je karta spočítala, což bylo daleko přesnější a daleko více to vykazovalo o výkonu karty. Stejně jako při výpočtu superpí pro CPU, všechny karty počítaly totéž a šlo jen o to, jak rychle to zvládnou.
Co se týče měření spotřeby, obávám se, že křivky v grafech zde uvedených mají pravděpodobně se spotřebou málo co společného. Uvědomte si, že jednotka spotřeby elektrické energie je WATTHODINA a nikoli WATT. WATT je jednotka příkonu! To, co je zde prezentováno, je tedy s největší pravděpodobností asymptotické proložení diskrétních hodnot okamžitého příkonu, což není spotřeba. Abyste mohl říci, že se součet diskrétních hodnot okamžitého příkonu vynásobených periodou měření blíží skutečné spotřebě, musel byste vzhledem k frekvenci 50Hz vstupního napětí okamžité hodnoty příkonu měřit s periodou v řádu tisícin vteřiny, což se zde myslím neprovádí. Proto je lepší k měření spotřeby použít indukční elektroměr, který spotřebu (WATTHODINY) měří spojitě, zde pak naopak chybí údaj o okamžitém příkonu, který je možné odečíst z WATTmetru ať už digitálního tak analogového.

FPS: Možno by nebolo odveci si najprv pozrieť ako funguje Fraps a až potom kritizovať. ;) On totiž zaznamenáva čas každého jedného vykresleného snímku, takže z logu môžete mimo iné vyčítať aj koľko snímkov bolo celkovo vykreslených a priemerná hodnota je presne to, čo som napísal v predošlom príspevku. :)

První grafické banchmarky: Tie by sa ale v testoch spotreby GK dali použiť jedine v prípade merania spotreby grafickej karty izolovane od ostatných komponentov, lebo nepredpokladám, že by záťaž CPU a iných častí bola konštantná počas celého testu.

Spotreba: Táto veličina snáď nesúvisí s príkonom? To sú mi ale novinky. Samozrejme v závislosti na spôsobe merania môžu vznikať nepresnosti (rozdiely), ale vrámci porovnania jednotlivých GK je to prakticky bezchybné. A v prípade použitia true RMS meradla (čo bude zrejme aj tento prípad) určite odchýlka od skutočnej spotreby nebude veľká.

A zrejme akékoľvek vzniknuté odchýlky budú oveľa menšie ako tá spôsobená tým, že zaručene žiadne dve GK (rovnaký model aj výrobca) nebudú mať identickú spotrebu. Mám pocit, že chceš od tohoto testu niečo, čo tam už z princípu byť nemôže.

WATT není jednotka spotřeby! Je to jednotka příkonu! (doporučuji nastudovat alespoň fyziku pro základní školy ;)
Popsat osu "spotřeba PC [W]" jen svědčí o tom, že dotyčný opravdu neví, co je spotřeba elektrické energie, jakou má jednotku a pravděpodobně ani jak se měří.
Hodnoty v grafu je možné považovat za hodnoty okamžitého příkonu meřené v časových okamžicích proložené křivkou. Za spotřebu je pak možné označit obsah plochy pod touto křivkou, neboli časový integrál, případně časový součet v případě diskrétních hodnot, ale tato hodnota se v článku nikde neobjevuje.
A právě tato spotřeba (myslím tím spotřebu ve Watthodinách) je dobrým ukazatelem toho, jak moc daná GK "žere", narozdíl od průměrného okamžitého příkonu, který se ve většině případů používá.
Pokud navíc tuto spotřebu (ve Watthodinách) vydělím počtem skutečně vykreslených snímků, dostanu jednoduchou metriku ve formě průměrné spotřeby na jeden snímek s níž lze "kvalitu" karet snadno ohodnit a porovnat.
Ale chápu, že EHW není profesionální web, takže tu můžete klidně dál měřit spotřebu ve Wattech :D

Kdybych chtěl opáčit stejně pedantskou úvahou jako vy, tak velmi lehce rozporuji spojení profesionální web a ještě vyřknu úvahu nad tím, že asi neznáte vyznám slov profesionální a amatérský. Jenže takový nejsem ;-), a tak jen napíšu, že na EHW se sice snažíme dbát na exaktnost, ale na druhou stranu naše testy jsou a budou pro širokou čtenářskou obec (kterou dle statistik čtenosti oslovujeme). Koneckonců i nesprávně používané zkratky jako TMU už používá i ATI/nVidia a takových příkladů posunutých či přenesených významů slov (protože se tak začaly lidmi používat) bych našel spousty.

Omlouvám se za nevhodně použité slovo "profesionální", bylo to myšleno ve smyslu "odborný", kde se očekává dodržování technických norem/standardů.
Chápu, že díky marketingu a překladu z angličtiny došlo ke zkreslení/záměně fyzikálních jednotek.
Svým příspěvkem jsem pouze reagoval na výzvu autora, jak by se dalo vylepšit porovnání spotřeby grafických karet. Stačí se tedy vrátit od marketingových jednotek spotřeby k jednokám standardizovaným a pak vše bude o dost jednodušší.
Je to stejné jako měřit u auta kolik ml benzínu se aktuálně vstřikuje do válců (příkon) při cestě mezi Brnem a Prahou a pak z toho počítat spotřebu (kolik litrů benzínu se spálilo). Jednodušší je si změřit obsah nádrže před vyjetím a po dojetí a dostanu spotřebu přímo a celkem přesně. Pokud tuto spotřebu navíc vydělím celkovým počtem kilometrů, dostanu průměrnou spotřebu na jeden kilometr. Stejně tak můžu spotřebu ve Watthodinách vydělit celkovým počtem snímků a dostanu pěkný ukazatel, kterým se dají karty porovnat.
Spotřeba aut se také neporovnává podle toho kolik ml benzínu dokážou vstřikovat do válců, i když by to jistě bylo zajímé ;)

"WATT není jednotka spotřeby! Je to jednotka příkonu!"
Na oplátku doporučujem ja tebe vrátiť na prvý stupeň ZŠ, lebo zjavne nerozumieš písanému slovu. Napísal som, že spotreba súvisí s príkonom, nie že jednotkou výkonu je Watt. Potom si môžeš zopakovať fyziku a zistiť, že z príkonu sa naozaj tá spotreba dá vypočítať. ;)

A človek tak múdry a vzdelaný, ako nepochybne si keďže používaš slová ako "integrál" aby sa ťa všetci zľakli, by si určite mohol vedieť vzhľadom na tvar kriviek spočítať spotrebu z tých hodnôt okamžitého príkonu. Veľmi rád si vypočujem, prečo hodnota príkonu nevypovedá o tom, koľko daná GK "žere". :) Na to som veľmi zvedavý. ;)

Výkon/spotreba sa teda dá veľmi dobre ohodnotiť z týchto údajov, a dokonca by si tým svojím "absolútne odlišným a profesionálnym spôsobom" prišiel k tým istým pomerom medzi kartami, ak aj nie k úplne rovnakým hodnotám (v rámci nejakej odchýlky samozrejme).

Stačí si přečíst celý můj příspěvek a nestavět pouze na prvních dvou větách.
Pak byste tam našel, že jsem uvedl jakým způsobem okamžitý příkon se spotřebou souvisí a dokonce jak je možné spotřebu z hodnot okamžitého příkonu spočítat, ale to vám nejspíš uniklo, neboť vám časová integrace/sumace zřejmě nic neříká.
Integrál považuji na rozdíl od vás za běžné slovo, u nás v Čechách se s ním setkávají studenti již na střední škole, nevím jak je tomu u vás na Slovensku, ale chápu, že leckoho může slovo "integrál" děsit, pokud si za ním nedokáže představit tu správnou matematickou operaci.

Výkon/spotreba sa teda dá veľmi dobre ohodnotiť z týchto údajov, a dokonca by si tým svojím "absolútne odlišným a profesionálnym spôsobom" prišiel k tým istým pomerom medzi kartami, ak aj nie k úplne rovnakým hodnotám (v rámci nejakej odchýlky samozrejme).
Opravdu nerozumíte elektrotechnice, propadl jste televizním a marketingovým představám, kdy se "spotřeba" udává ve WATTECH, takže nemá cenu dále diskutovat :)

Ozaj si to stále nepochopil... neuveriteľné. :)

Priemerné FPS krát čas testu, predelené hodnotou priemerného príkonu (zmerané správne fungujúcim meračom príkonu) ti dá to isté číslo a jednotku ako tvoje magické meranie celkového počtu snímkov predelené vo Wattsekundách zmeranou spotrebou. ;) Pán odborník... <= irónia pre prípad že by to ani tento raz nebolo dostatočne jasné. :)

Jediné v čom máš pravdu je, že v grafoch je nesprávne "Spotreba PC [Watt]", namiesto správneho "Príkon PC [Watt]".

Režim "timedemo" nebyl výsadou prvních benchmarků, je k dispozici v několika případech i dnes (třeba id Software to v hrách na jeho enginech drží). Nemá ale jen výhody, což už je z definici (v příspěvku, na který reaguji) snad taky zřejmé.

S teplotou rastie spotreba - znamy fakt. O to viac ma prekvapuje (a upozornil som na to aj v diskusii v teste grafickych kariet) ze si pri testovani prevadzkovych vlastnosti kariet zvolite nereferencnu GTX 460 1 GB Cyclone (ktora ma podla testu na Guru3D od referencnej GTX 460 1GB teplotu v zatazi nizsiu o 8°C) a porovnavate ju s referencnou HD 6870. Nejde o to mierne pretaktovanie, to sa na vyslednom vykone az tak nepodpise, ale ide o to ze karta je chladnejsia a teda ma nizsiu spotrebu a takisto aj tichsia, takze v testoch hlucnosti automaticky nad referencnou kartou konkurencie vitazi.

EDIT: pochvala za dobry a zaujimavy test.

Až dokončím nějaké vlastní testy s GTX 460, tak snad Adamovi tu referenční pošlu (pracuje pár desítek km od redakce), aby už byl pokoj. Btw, vychází ti z tohoto srovnání Radeony vůči GeForce málo dobře, že je potřeba redakcí už jednou vysvětlenou a obhájenou volbu GTX 460 Cyclone znovu napadat? ;-)

Ja volbu redakcie nenapadam, naopak, sam by som si vybral tu istu verziu ak by som si kupoval GTX 460. Ak by ste ju odporucili do zostavy tak je to ok, v testoch by ale mali mat karty vyrovnane podmienky - ide o vasu povest a tu mate medzi citatelmi velmi dobru ;-).

a testovanim s Cyclonkou si ji urcite nezkazej :)

Bohužel u lidí znající problematiku ano.

Nechci být nějaký hnidopich, ale tuším, že to rozhořčení se týkalo minimálního počtu lidí. I když byli hodně vidět.

Obecně bych v tom neviděl žádný velký nedostatek.

Osobně nejsem nijak rozhořčen, popravdě je mi to tak nějak jedno. Byl bych jen nerad, kdyby úroveň recenzí na EXH šla dolů, kvůli takovým banálním chybám jako je zařazení Cyclona do testů. Následné vykrucování se a bagatelizování proč tak bylo učiněno je jen třešničkou na dortu.
Odůvodnění, že referenční GTX460 prý nejde sehnat, je holým nesmyslem, stačí se jen kouknout do eshopů, všude skladem je.
Poku by přeci jen trvali na Cyclone, proč jej tedy nepodtaktovali na referenční frekvence stejně tak, jak to udělali s HD6850 DirectCu?
To, že cena referenční GTX460 je vyšší jak OC verze s výběrovými čipy a lepším chlazením také něco naznačuje.
Pokud tedy jsem sám, komu nevyhovuje, že do testů jsou připuštěny OC edice karet, ať už nVidia nebo AMD, pak jsem z toho smutný, nikoliv rozhořčený :)

Kdo chce psa bít, hůl si najde....:)

Zdravím a nemyslím, že to byl záměr, spíše úlet, který se může stát každému. Je ale dobré na to upozornit, aby se z toho tady nestal divoký OC západ :)

Úlet v testování karet vidím prvně :))).
Po tomhle "mediálním výprasku" se to zřejmě na EHW už nestane, ale já sem teda jejich zastánce. Rozdíl v taktu je minimální. Co možná v redakci udělat mohli je kartu alespoň opdtaktovat, aby sme měli 100% prodejní kartu alespoň z této strany, a i minimální rozdíly v jednotkách procent byli smazány.

Nicméně argument, že se Cyklonem mění naprosto provozní vlastnosti je tabu, je tu přeci test referenční GTX460 a proto není problém se strýčkem Googlem si ho najít. Co se dá dělat, někoho to (nechápu proč) pohoršilo a jak jsem řekl, myslím že EHW už tohle nedopustí.

Ano. Myslím, že to zařazení Cyclone do testů byla absurdní a školácká chyba, která se jim nyní bude v příspěvcích ještě dlouho vracet. No snad se to už příště nebude opakovat.
Jinak velmi pěkný článek, perfektní grafy. Tedy pochvala.

To žádná chyba nebyla. Referenční GTX 460 aby hledal člověk lupou a Cyclone je takový průměr.

Nereferenční řešení prakticky srovnávat nejde. Ale pro orientaci tam byla referenční GTX470 a z toho si lze tu představu udělat.

A verdikt byl udělen obecně a ne jen ve vztahu k MSi Cyclone. Takže ano, kritizovat to lze, ale není to zase nějak závažný nedostatek. Obzvlášť, když vezmeme ještě v úvahu, že dnes by koupil referenční GTX460 jen hodně neinformovaný člověk a každý raději sáhne právě po Cyclone, když rozdíl mezi nimi je nějakých 100+ Kč.

Pro MJ: doměřte to tam, ať je klid.

EDIT: tak dokonce je MSi Cyclone 1GB i levnější než referenční verze.

O cenu nejde, uz to predtym niekto spominal ze Cyclone je za rovnake alebo lepsie peniaze ako referencna karta. Len to nebolo fer voci ostatnym kartam co sa tyka teplot, hluku a spotreby.

A co ta DirectCu? A kdo vlastně měl v recenzi nějaké „referenční“ provedení HD 6850? ;-) (a ti, co měli kartu od AMD, vlastně měli asi něco, co stejně první výrobci hned změnili). Jak už asi padlo: kdyby tam byl 800MHz Palit/Gainward nebo ještě výš taktované edice od Gigabyte/MSI, tak neřeknu, ale ta Cyclone test nijak dramaticky nezkreslila. U hluku pak lidi max. vědí, že si mají třeba u HD 6850 na provedení Cyclone počkat taky (zamaskováno to tam nijak nebylo).

Ja som to pisal s ohladom na HD 6870 nie HD 6850. Tie su vsetky nereferencne a je jasne ze tam je tazke najst objektivne kriterium vyberu kartu ktoreho vyrobcu do testu zaradit. Napada ma jedno - ak je v teste HD 6870 napriklad od Sapphire, tak HD 6850 by mala byt pokial mozno tiez od Sapphire.

Tím se vůbec nic nevyřeší, protože 6870 od Sapphire je v referenčním provedení, 6850 od Sapphire ne.

Ved som to napisal sakra Adame :-). Vsetky 6850 su nereferencne tak je tazke najst objektivne kriterium ktoru kartu od ktoreho vyrobcu vybrat do testu. Mna napadlo riesenie zaradit do testu karty HD 6870 a HD 6850 od rovnakeho vyrobcu, rozumieme si ;-).

Nerozumíme. :-) HD 6870 od Sapphire je (zatím) karta v referenčním designu, takže to možná může vypadat, že má zařazení HD 6870 a 6850 od Sapphire nějakou logiku, protože jsou modely od jednoho výrobce, ale v podstatě to je totéž, jako vzít HD 6870 od kohokoliv a k ní dát HD 6850 od Sapphire, nebo naopak totéž, jako vzít HD 6870 od Sapphire a k ní dát jakoukoliv 6850 od jiného výrobce.

Jo kdyby měly obě aspoň stejný chladič, tak by to nějaký smysl mělo.

Celkově to srovnávání zrovna v oblasti hlučnosti asi nemá moc smysl. Referenční se volí s nějakým ohledem na poměr cena/výkon, tak aby byl výrobce schopen zaručit nějakou životnost po dobu provozu. Nereferenční se pak může soustředit buď na výkon nebo hlasitost.

Takže v případě hlučnosti pak stačí jen vědět, že se třeba zrovna tato generace vyznačuje hlasitějším. Pak prostě je už na zájemci, aby šel po řešení s nižší hlučností či vyšší účinností. Případně se spokojil s referenčním řešením.

Jinak bych rád poděkoval za velmi dobře promyšlený rozbor spotřeby, je na tom vidět dost práce, a jen bych se přimluvil, jako Arg nahoře, za dozařazení HD6850 1GB.

Neříkám, že ne, ale pro srovnání tam byla ta GTX470. Takže představu si každý udělat mohl.

Tohle jsou stále dokola ty samé problémy. Pro to, aby si každý udělal představu, které nebude vzdálená skutečnosti, tam je dostatek podkladů. A je tady taky třeba brát do úvahy nestandardní situaci - GTX460 v referenčním provedení prakticky není dostupná.

Při testech docela často lže spotřeba (a teploty+hluk) v idle, pokud má totiž člověk třeba dva monitory, tak alespoň mně běží karta na mnohem vyšších frekvencích.

V PC mám GF8800 a zdroj 430W. Vše v pohodě. Chtěl bych 460, ale z diskuzí to vypadá, že chce zdroj 550+. Podle místních grafů má 460 spotřebu o trochu menší než 8800. Tak v čem je problém ?

Problémů v tom, cos napsal může být několik.
1. Jakou máš GF8800? GTX/GTS/GT - jejich spotřeby jsou hodně rozdílné. Zdroj co zvládne GT nemusí zvládnout GTX.
2. Kvalita zdroje - pokud máš značkový zdroj(enermax, seasonic,...), tak bych se nebál. V nejhorším případě se při přetížení vypne.
3. V případě výběru zdroje nejde jen o průměr, ale i o špičku.

Jinak pro porovnávání zdrojů bez testů(které jsou ale mnohem lepší) je vcelku zbytečné brát wattáž. Mnohem lepší informace je, jaký zvládne proud na 12V větvích. Pro srovnání 350W Seasonic/Enermax mají 17+17A zatímco "550W" LC-Power má 14+15A...

A ještě při tom proudu vyhoří :D

8800GT, zdroj má 2x17A na 12V Fortron430

Ten zdroj bude stačit, pokud neplánuješ nějaké OC nebo přikoupení diskové farmy.

V českých diskuzích se hodně rozmohlo zdroje naddimenzovávat, oni samy výrobci GPU tomu přispěli. Na svých stránkách uvádějí taky dost nadsazené čísla.

souhla, ale je treba si i uvedomit proc se naddimenzovava, takovi naddimenzovany zdroj zaprve nejede ke svemu maximu a tim teoreticky muze zaprve dele vydrzet a zadruhe i lepe vykryva vykyvy v napeti z elektricke site a vykyvy od samotnych komponent

ja kuprikladu zdroj vybiram ne podle toho jakou cislovku nasobe ma, ale podle grafu kde vyrobce/recenzent uvadi idelani spotrebu pro dany zdroj, v mem pripade krivku ucinnosti, zhruba si spoctu jakou cca spotrebu bude dana sestava mit v idle a peak a pak hledam zdroj ktery ma tyto dve hodnoty v grafu ucinnosti co nejlepe postavene

Samozřejmě, ale 450W prostě stačí na 90% domácích sestav s běžnou mainstreamovou kartou, napájenou 1x6-pinem. Ta účinnost je v tom započítána také, ta sestava si typicky v zátěži řekne o nějakých 300 - 350W, takže ani onen 450W nejede ke svému maximu, ale je právě naopak v nějakém ideálu zatížení cca 70-80%. Který je povětšinou uváděn ještě v ideální křivce zatížení, vzhledem k životnosti. Tohle se týká běžného počítače v domácnosti, který bude používán povětšinou na hry+internet. Ta hodnoty v tom idle u něj nebude až tak důležitá.

Ale ještě jednou upozorňuji, že nezáleží na wattech, jako spíš na kvalitě daného zdroje, ona naddimenzovanost je do určité míry asi z bezpečnostních důvodů. Ono by se totiž klidně u nějakého EC mohlo stát, že těch 450W dlouhodobě na GTX460 pohoří. Takže vybírat zdroje, pokud to umožňuje rozpočet, alespoň OEM nějakých kvalitnějších výrobců.

Imho do tohohle promlouvaj dva faktory u zdroje - jeho kvalita (zda to, co se o nem rika na stitku plati beze zbytku), a zpusob reseni/rozdeleni +12V vetvi.
Naddimenzovanost u vyrobcu grafik je asi dana ze dvou duvodu - neda se rict, ze vsechny zdroje na trhu jsou kvalitni (a pokud je 500W ve skutecnosti predimenzovana 400W, pak je lepsi doporucit radeji 700W (;), a pak, ze vyrobce grafiky netusi, co vsechno v pc je a co vsechno ten zdroj jeste zivi.

Ufff... "90% domácích sestav s běžnou mainstreamovou kartou" sa k 300W určite ani nedostane. ;) A to ani ak by sme sa bavili o hodnote na zásuvke, teda bez zarátania účinnosti zdroja. Nemá každý i7 na 4GHz ako tu v teste. ;)

Nadhodnotil jsem to, aby bylo jasno, že těch 450W stačí. Pokud chceš můžeme to rozebírat dál....:)

Šlo mi o to, ukázat, že 450W PSU prostě stačí na běžné domácí využití s dostatečnou rezervou.

Mám v tomhle směru zajímavou zkušennost, kterou si zatím úplně neumím vysvětlit...

V původní sestavě jsem měl Fortron FSP650-80GLN, což by měl být snad "bronze" zdroj a Q6600+5970 bralo ve špicce 380, ve furmarku klidně i 500 ze zdi

teď mám Core i7-870+5970 a sestava si ve špičce bere kolem 250 a ve furmarku cca 400... může takový rozdíl udělat jen výměna toho Fortronu za Corsair HX-750 (prý silver)

Mimochodem ten Fortron ač údajně atx2.1 je s corei7 a H55 deskou nekompatibilní :(

Konečně někdo vyřknul to, co říkám od uvedení Fermi, to že sestava má o 100watt víc neznamená, že vše žere grafika, ale třeba procesor si bere své (výkonnější grafika = větší nárok na CPU). Naoapk nesouhlasím s tím, že chceme znát spotřebu i s tíémto faktorem, nejideálnější by bylo snímat spotřebu jen grafické kartě, snad z napájení (nevím jak je to možné provádět) ale byl by to nejobjektivnější způsob.

Taky by byl hodně zajímavý test testovat kartu se zdrojem doporučeným třeba 550Watt opravdu se zamklým příkonem jen 550Watt. Toho se zde asi taky v nejbližší době nedočkáme (a kdo ví co bude v budoucnu), ale řeštilo by to celkem dost sporů. A jak víme občas si nejen GK vezme ze zásuvky víc než musí, při stejném/ minimálním rozdílu výkonu.

daji se koupit diagnostiky kde se bere spotreba z PCIe slotu a pridavneho napajeni, tak kuprikladu meri na Techpowerup a zmeri tak cistou spotrebu samotne VGA

otazka je jestli by se EHW takova investice cca 30-40 tisic za takovou diagnostiku vyplatila

Vůbec to nemusí stát takové peníze, třeba PEXP16-EX riser
http://www.adexelec.com/pciexp.htm
stojí 115 USD. Tím je vyřešen proud z MB a měřit proud z přídavného napájení už je sranda.
Hlavně jde asi o tu práci, jednodušší je mít prostě v zásuvce wattmetr :)

Hlavně je to mnohem logičtější.

Proč se vlastně vůbec měří spotřeba? Ze dvou důvodů:
a) nízká spotřeba zahřívá naše ekologické srdéčka
b) spotřeba ovlivňuje náš účet za elektřinu

Ovšem pro oba dva parametry je důležitá pouze ta hodnota, kterou si vezmeš ze zásuvky, za to že samotná karta má nízkou spotřebu, za o se žádný metály nedávají, důležitý je, jak zacvičí se spotřebou celku.

Logičtější to rozhodně není. Mně v testu grafiky zajímá, kolik bere grafika, abych si mohl udělat představu o celkové spotřebě MÉHO pc, tu si změřit umím a přičíst číslo taky umím. Naopak mně nezajímá, kolik umí brát redakční pc se 150W CPU apod...

Stránky