Reklama

ifkopifko

Příspěvky uživatele

Možné to je, nie som slon. :)
Ale pri Fermi generácii tam Nvidia určite mala slovíčko "Maximum".

Metóda je popísaná na strane č. 11 vo vyššie linkovanej recenzii.

Sranda, obyčajne to bývaš ty kto stále slovíčkarí okolo TDP. Nvidia ale žiadne TDP neudáva, len "Graphics Card Power", predtým tuším používali niečo ako "Maximum Board Power". Či je tá súčaná verzia v súvise so základnými taktami alebo nie sa môžeme len dohadovať, ale v praxi je to aj tak jedno. Bordel v tom tuším narobil až práve GPU Boost 2.

Opakovaním a priemerovaním nevyriešiš chyby v metodike. Vždy očividne počítajú s fixnými 10W v idle, nezapočítavajú účinnosť zdroja a vlastne ani nepíšu, v čom konkrétne to testujú (podľa popisu očakávam nejaký power-virus). Už bolo aj tu na EHW ukázané, že podľa toho v akej aplikácii testuješ, môžeš dostať diametrálne odlišné výsledky.

Každopádne je zaujímavé, ako karta podľa niektorých recenzií zvýši svoj príkon pri GPGPU záťaži. Vyzerá to, ako keby GPGPU schopnosti neboli pre kartu príťažou pri hernom použití, čo sa energetickej efektivity týka. To sa mi veľmi páči.

Kto meria izolovane príkon grafickej karty? No napríklad práve Tom's Hardware a TechPowerUp. Že má nereferenčná OC verzia nižší príkon ako referenčná nie je nič výnimočné.

Jop, aj tam to videl vtedy "poprvé". :-P

Každopádne verím, že to Samsung vyrieši, bola by škoda keby si pošramotili veľmi dobrú povesť.

Presne preto som upozornil, že v tom meraní sú započítané aj straty na napájaní CPU/APU. ;) A teda, pravdepodobne prekročené nie je.

Ja som narážal hlavne na tvoju vetu: "Pekne sa pise to TDP45W ale je to marketing..."
Ono to totiž vyzerá, že je to realita.

Síce máš pravdu v tom, že Intel je na tom podstatne lepšie čo do efektivity, ale keď sa pozrieš na izolované meranie napájania CPU/APU, tak vidíš, že APU sa veľmi dobre držia svojho TDP (v tej hodnote sú započítané aj straty na napájaní). Že mnohé Intel CPU nedosahujú na svoje papierové TDP je iná vec. Zas napr i7-4790K celkom evidentne svoje TDP prekročilo, a taktiež ak sa pozrieš na staršie miestne testy CPU, tak 6-jadrové Intel CPU do socketu LGA2011 si tiež nerobia ťažkú hlavu z nejakého TDP. Treba ale pripomenúť, že časť (ak nie všetko) to môže byť vina základnej dosky a jej nastavenia Turba.

+1
Dekodéry sa stále prudko vyvíjajú a taktiež je otázka, aké nastavenia pri enkódingu sa nakoniec rozmohnú ako "štandardne používané", nepredpokladám, že HEVC bude jednoduchší než jeho predchodca, čo sa flexibility týka.

Ja osobne som, a asi ešte dlho budem, spokojný s H264/x264.

Aký diskutabilný nárast výkonu? Ty už si snáď nejaký ten Haswell-E testoval? Navyše, je veľmi nepravdepodobné, že jediný rozdiel medzi DDR3 a DDR4 bude frekvencia a časovanie, som si celkom istý, že tam budú aj nejaké íné zmeny, resp technológie navyše.

P.S.: Na stránke ADATA sú predsa DDR4 2133MHz aj s CL13. ;)

Pre poriadok:
1. Top Kaveri podporuje oficiálne max 2133MHz.
2. Prvé ddr3 boli tuším bežne 1066MHz, dokonca boli aj len 800MHz.
3. Overclockerské DDR2 sa predávali aj 1200MHz, možno dokonca aj vyššie, hoci to nebol JEDEC štandard, to ale pokiaľ viem nie sú ani DDR3 nad 2133MHz.

Takže táto situácia tu bola pokaždé, keď sa prechádzalo na nový typ DDR.

Aké to silné reči...

Ad predražený krám: Keď už si začal tú funkčnosť a odbornosť, tak čo presne máš proti nasadeniu TLC v consumer segmente a 840 EVO kontkétne? Mám na mysli niečo praktické, nie teóriu o počte prepisov, záruku máš totiž rovnakú pokiaľ viem. Ten model je na trhu takmer tak dlho ako "preverená" M500. K tomu predraženiu, je rozhodne rýchlejší ako M500, tak čo by si chcel, aby stále menej? Každý si musí zhodnotiť, či mu to za to stojí...

A prečo MX100 oproti M500? Lebo je väčší, rýchlejší a za rovnakú cenu? Radič je rovnaký ako v M550, takže zas taká novinka to nie je.

Mirek ale písal o 24" Dell, tam to je cca 92 DPI.

Ale je zvláštne že to nie je dokonalé, závisí však ako sa to testuje. Vhodný test by bol zobrazenie FHD screenshotu napríklad. Osobne by ma však zaujímali iné nenatívne rozlíšenia, že ako to na 24" 4K monitore vyzerá, čo sa ostrosti týka. Samozrejme treba pretestovať škálovanie monitoru, ale aj možnosť škálovania na GPU.

Ja by som len podotkol, že v tomto teste je síce zmeraný príkon pri "idle", ale na notebooku si snáď každý, komu záleží na výrdži na batériu, zapne HIPM+DIPM a vtedy bude príkon v nečinnosti úplne iný.

To, čo bude v konečnom dôsledku rozhodovať o výhodnosti daného Pentia, alebo niečoho drahšieho, je aj tak spôsob používania konkrétneho PC. Určite je to pre mnohých alternatíva na zváženie.

Stránky

Reklama
Reklama
-->