Exkluzivně v ČR: AMD Radeon HD 7970 GHz Edition v testu

AMD dnes oficiálně uvádí vylepšený Radeon HD 7970 s dovětkem GHz Edition. Významnou novinkou je automatické přetaktování. Úkol je jasný: trumfnout GTX 680. Povedlo se to?

Radeon HD 7970 GHz edition se představuje

AMD dnes oficiálně uvedlo na trh nový Radeon HD 7970 GHz Edition. Karta se tak zařadí po bok dalších modelů, které dostaly tuto nálepku.

Při pohledu na specifikace Radeonu HD 7970 GHz Edition i samotné karty od AMD by se mohlo zdát, že jedinou změnou, kterou karta doznala, je „přetočený“ firmware s trošku vyššími takty jádra a pamětí.

Referenční karta je totiž stejná jako karty z první várky, stejný je plošný spoj, napájecí kaskáda, přídavné napájení kombinací šestipinu a osmipinu, a stejná je i revize grafického čipu.

AMD HD 7970 reference design-0012
originál

Mohlo by se tedy zdát, že je jen (a nepříliš výrazně) přetaktovaným Radeonem HD 7970, kterých jsou už v prodeji mraky. Není tomu tak.

Předně se pro nové karty používají kvalitnější čipy (to pochopitelně neznamená, že u běžných Radeonů nenarazíte i na lepší). Díky tomu by měla být i přes vyšší takty stejná obálka spotřeby. AMD už tentokrát bohužel neuvádí maximální spotřebu, ve specifikacích mluví pouze o typické spotřebě 250 W.

Samotné jádro se nijak nezměnilo, stejný je počet stream procesorů, texturovacích i rasterizačních jednotek, Základní takt jádra se u „GHz edition“ zvedl z původních 925 na rovných 1000 MHz (díky tomu se mimochodem GHz Edition jako první model vůbec dostala přes 1 TFLOPS u výpočtů v double precision, logicky by to ale mělo platit i pro starší OC modely). Co je s ohledem na citlivost nejvýkonnějších Radeonů HD 7000 na propustnost pamětí asi ještě důležitější je, že se zvedl i takt pamětí z 5500 na 6000 MHz efektivně.

Reklama

Nejde ale jen o prosté navýšení taktů. Radeon HD 7970 kromě toho dostal od AMD i PowerTune Boost – obdobu GPU Boostu u Nvidie. Díky němu může Radeon dále dynamicky přetaktovávat jádro o 50 MHz nahoru (a v případě nereferenčních OC karet to může být i 100–200 MHz nahoru) v případě, že má karta dostatečnou rezervu.

U GeForce GTX 600 s architekturou Kepler se měří aktuální spotřeba a podle ní logika reaguje, a protože se spotřeba grafického čipu může lišit kus od kusu, může se i kus od kusu lišit rezerva pro přetaktování a s tím i výkon. AMD stanovilo frekvence pro Boost paušálně a platí pro všechny karty – každá by měla být schopná dosáhnout 1050 MHz, ale zároveň by žádná neměla běhat rychleji.

Technologie PowerTune Boost je realizovaná částečně pomocí nového firmwaru a částečně modifikací ovladačů. S ohledem na to, že se karty jinak fyzicky neliší, by tedy teoreticky neměl být problém rozběhat ji i na stávajících HD 7970. Ale rovnou vás zchladím, AMD zatím zastává postoj, že PowerTune Boost bude výhradně doménou GHz Edition a na starších Radeonech nepůjde zpětně zprovoznit.

Jak přesně PowerTune Boost funguje není z toho, co AMD k této technologii řeklo, zatím moc jasné. Situaci výrazně komplikuje i fakt, že na rozdíl od konkurenční GPU Boost se PowerTune Boost chová obdobně jako PowerTune – karta zřejmě diagnostickým utilitám nehlásí přesně aktuální frekvenci, v GPU-Z se totiž při zátěži střídala pouze základní frekvence jádra a udávané frekvence PowerTune Boost, tedy 1000 a 1050 MHz.

Možná je to ale dáno i tím, že se u PowerTune už moc nedá mluvit o něčem jako je reálná, ale spíše jen nějaká průměrná aktuální frekvence – karta ji totiž může měnit velice rychle a po velmi malých krocích.

Ochutnávka z nové metodiky

Karta je testovaná na nové testovací sestavě a na řadě her, které budou součástí nové testovací metodiky. Není to bohužel práce na dvě odpoledne, proto počítejte s tím, že ji budeme postupně doplňovat a vylepšovat.

Velmi stručné jsou zatím i popisky k jednotlivým hrám a nastavením, dá se říct, že recenze grafických karet stavím zgruntu znova, mějte prosím tedy chvíli strpení. Pokud vše půjde podle plánů, odměnou budou mimo jiná vylepšení i interaktivní grafy.

Testovací sestava

Jako testovací platforma posloužila základní deska Gigabyte X79-UD5 s BIOSem F10. Procesor je šestijádrový Core i7-3960X s TDP 130 W, který je přetaktovaný na 4,2 GHz při 1,36 V. Asistuje mu 16GB kit operačních paměti DDR3 od Kingstonu.

  • základní deska: Gigabyte X79-UD5
  • procesor: Core i7-3960X (deaktivovaný HTT, C1E, EIST), 4,2 GHz na 1,36 V
  • chladič CPU: Noctua NH-D14
  • paměti: 4× 4 GB Kingston DDR3 KHX2133C11D3K4/16GX
  • zdroj: Enermax Revolution 85 ERV920EWT-00, 920 W
  • pevný disk: Intel SSD 510 (250 GB)
  • skříň: Gelid DarkForce
  • operační systém: Windows 7 x64

Gelid Darkforce

Všechny karty jsou testované jen na pár dní starých ovladačích – v případě Radeonů šlo o neveřejné ovladače Catalyst 12.7beta přímo od AMD. GeForce je testovaná na betaverzi ovladačů označené 304.48.

Ve srovnání najdete čtyři grafické karty, vlastně to nejzajímavější, co se dá s novou HD 7970 GHz Edition srovnávat.

Především je to konkurenční GTX 680 v referenčním provedení. Ve srovnání je dále původní novinářský sample HD 7970 v referenčním provedení, bohužel právě ten s lepší teplovodivou pastou, který se u nás po toulkách po světě zase na chvíli zastavil.

Přetaktované HD 7970 zastupuje model HD 7970 OC do Sapphire s dvojicí ventilátorů na výkonnějším 1000MHz profilu, a čtvrtým je konečně testovaná HD 7970 GHz edition.

Oblíbené Tisk E-mail
Reklama

Komentáře

Snad si nikdo nemyslí, že ten výkon v Dirt Showdown je sám sebou. Že by náhoda, že se ta GeForce-crippling featura objevila chvilku před uvedením 7970 GHz Edition? To těžko :D To samé Sniper Elite a Nexuiz, které si dala AMD na slajd s podobně vysokými náskoky. Nvidia si dává na slajdy většinou hry, které někdo skutečně hraje. AMD je trapná. Připomíná mi to ten slavný Shogun 2 patch (hra sponzorovaná AMD), který na GTX680 způsobil 60% propad. To se to pak benchmarkuje :D Imo takové kraviny jako má AMD na tom slajdu by v tomhle testu být vůbec neměly a přijde mi to trochu jako ztráta času to měřit.
Ale je pravda, že v AMD museli něco udělat, protože už teď má v podílu trhu podle Steam Hardware Survey GTX680 12% náskok nad 7970 a to se přitom ta GeForce začala prodávat až 4 měsíce po Radeonu. Sranda by byla, kdyby teď GTX680 razantně zlevnila. Nvidia si to s malým GK104 může dovolit, AMD s jejich velkým čipem těžko. To by mě zajímalo, co by dělali.
Dík za test a těším se, až naměříte další hry!

tipnu si ze zlevnit a to i razzantne by mohli oba, spekulace o stavu a cene 28nm vyroby, a nekteri "novinari" jim v tom i pomahaj, tak proc ty ceny nedrzet nahore kdyz se dari prodavat :)
 
ted je jen otazka, zda na GHZ edici vubec neco vydela samotne AMD? z pohledu vyrobce bych asi nebyl ochotnej platit za ty same GPU vic jen proto, ze to jsou cipy pro GHZ edici ktera muze a pravdepodobne bude parazitovat na OC verzich

Chtěli jen srovnat takty a ukázat "who leads". Hlubší smysl bych v tom neviděl. 
Maudite, tísíckrát omýlané. Jádro CGN je větší ne proto, že je v něm bylo víc vzduchu, ale protože obsahuje navíc units pro DP, které tenhle mrňavej Kepler nemá. Namísto dalších návrhů jader pro profi segment prostě jen přidají paměť a upraví mikrokód a BIOS - na 7970 bude podlě mě stát pilotní model FirePro. Menší model range, nižší náklady. Toť můj názor. Každej si zvolil svou výrobní politiku.
To že se dostala tato verze tak brzo do testu v ČR hold bylo zřejmě vykoupeno "vybranými" testy :) Na netu je plno starších testů, kde mají obě karty srovnané takty a výkon na takt mají zhruba stejný. Ad ty tvé 4měsíce - Nvidia jen naladila výkon Keplera podle CGN (proto na zahraničních servrech ono označení "class hunter" pro 680;). Kdo ví kde je onen skutečný potenciál architektury. Hlavně že ji furt uctíváte jak modlu. Takovej Torvalds ví své.. :P
 
 

Ne, raná recenze se skladbou testů nijak nesouvisí, a kdyby si někdo takovou podmínku kladl, pošlu ho do háje nejen já, ale i Mirek, za tohle by nám jeden test vypuštěný s koncem NDA opravdu nestál a nemáme to zapotřebí.

Nejproblematičtější pro GTX 680 z těchle her jsou dvě věci – AvP a Dirt. U Dirta je to výslovně napsáno, AvP používáme dlouhou dobu a protože s výkonem karet stále výborně škáluje, dají se s ním otestovat karty od nejslabších po nejvýkonnější, umí se v dávce otestovat sám, a spolu s Crysis Warhead, STALKER: COP a World in Confict bude jakýmsi spojníkem se staršími testy (kvůli představě o výkonu nových karet ve srovnání s minulými generacemi) zůstane i v nové metodice. 

Děkuji za jasné vyjádření. Pokud jde o zcela nezávislou skladbu, beru své podezření zpět jako nepodložené. Sem tam člověk narazí na exkluzivní recenzi/test, kde je také pochopitelně citlivější na objektivitu..

Btw. Opět se mi podařilo přeházet písmena ve zkratce graphic core next. Upravit to už nejde takže alespoň takto..

Taky nemám rád featury, které jsou na kartách jednoho výrobce nepoužitelné, ale přesto se s nimi testuje a pak se to počítá do celkových průměrů, nVidia si to s oblibou dává do slajdů a vyžaduje po novinářích, aby to testovali, jinak jim nepůjčí kartu, nebo sice půjčí, ale až projde štafetou ostatních magazínů. Ne, nepřeřekl jsem se s tou nVidií. Maudite, zapomínáš na existenci GPU PhysX, když se ti to zrovna hodí?

testoval bych vsechny ty varianty, jak PhysX, tak hry ktere maji naklonost k nejake ze "znacek", na specializovanem webu stejne +- vetsina lidi vi jak to s tim je, a tak si to bud budou ignorovat, nebo se alespon dozvedi jak to ta dana karta zvlada co nezvlada, kupcum z rad ctenaru EHW je jasne ze karty z cipy od AMD proste neumej GPU PhysX a kupcum z rad ctenaru EHW je jasne ze karty z cipy od Nvidie je zase dobre rici, tady vam to pojede hur
 
jinak mozna marne, ale cekam kdy se nekdo zacne stourat v Dirtu aby zjistil proc ze to vlastne Nvidie jedou na teto nove hre tak pomalu, vzpomenme na Crysis2, tak se po par tydnech zacalo stourat "proc a jak" a resila se treba tesselovana voda v misich kde se hrac k vode nedostane :)

Jojo, ten DiRT by mě taky zajímal. Ostatě tu snad někdo psal, že to používá compute shader, nebo co.

Osobně si myslím, že v nastavení benchmarku byly nějaké efekty využívající double precision. Konec konců, implementace Direct Compute/OpenCL do herního titulu bylo pro AMD jediné řešení jak dostat GTX680 na lopatky.. 

Plus samozrejme ak na to grafika vykonovo ma tak preco to neurobit.

Hej. A teraz si zober kritiku jemnej teselácie, ktorú výkonovo zvládali lepšie GPU od NVIDIe. Koľko okolo toho bolko kritiky. Ale beriem to ako rovnakú výhodu akú použilo teraz AMD. Ak to je tak ako sa píše.

Ak je to pouzite v rozumnej miere tak samozrejme je to plus daneho riesenia. Ked sa ale pouzila teselacia aj tam kde to vobec nebolo potrebne a hlavne to ani nebolo vidiet (Crysis 2) alebo sa zamerne nepouzili optimalizacie (myslim ze to bolo bud u Lost Planet 2 alebo HAWX 2, neviem presne) tak je to uplne ina situacia. Takisto napriklad este pred takym rokom sa kludne dalo povedat ze PhysX bol na jednej karte u hier nepouzitelny, kedze to hru ledva rozhybalo na plynulych FPS.

U optimalizáciách by som sa z toho čo si menoval zameral skôr na Crysis 2. Podľa toho čo písal greg (možno si ho pamätáš) na memenovanom webe, tak AMD kartám nerobila proiblém teselácia u objektov, ktoré neboli vidieť pretože mali nízky stupeň teselácie. Preto zrejme vývojári Crysis 2 takéto objekty neriešili aj keď mohli, čo sa zdá z tohto pohľadu logické. U HAWX2 a Lost Planet 2 pokiaľ viem bol problém vysoký stupeň teselácie na ktoré neboli proste AMD karty pripravené. Zaujímalo by ma v tomto prípade aké optimalizácie neboli použité a vôbec odkiaľ sa zobralo, že nejaké optimalizácie neboli použité zámerne. To sa niekto k tomu priznal?

Gragory postuje nekde na ceskem webu/foru, nebo myslis nejaky anglicky forum? nebo vlastne to muze bejt kdokoliv
ale od jisteho programatora z UK co na forech byva jako greg mam dost casto info ohledne chystanych GPU/karet, vlastne i nazev Fermi ktery jsem psal kdysi Mirkovi v dobach kdy se o "GF100" spekulovalo, jsem mel od neho, ma o novich kartach info zpravidla tak 1-2 mesice predem, stejne jako asi zrejme i ty karty samotne :)

No na DDho svete tiež vystupoval istý greg, ktorý toho po pár týždňoch nechal lebo nemal už na DDho a niektorých ľudí nervy. Zrejme hovoríme o tom istom človeku, ale z iného diískusného fóra ho nepoznám. Každpádne prinášal celkom zaujímavé informácie k témam grafických kariet alebo o PhysX. Informáciu o použitej teselácii v Crysis 2 písal on.

ja ho znam tusim z ceske-hry, nebo podobneho servru, uz presne nevim, tech o tvorbe her jsem navstevoval nekolik, a delal jsem posleze s nim na jedne gamesce, ma co vim neskutecnej rozhled v technologiich hernich enginu a nedela mu problem zapracovat do enginu cokoliv co clovek chtel, a umi to i bezvadne rozepsat do faq nebo navod tak, aby to pochopil i totalni laik :)
 
na servrech o HW jsem ho nikdy prave nevidel, tak jsem se zeptal, no jestli to zkusil na DD tak se ho priste az ho uvidim zeptam

Bol to ten HAWX 2 nakoniec, nie Lost Planet 2. AMD malo nejake optimalizacie pre LP2 benchmark ktore vraj Ubisoft odmietol do toho benchu zakomponovat. Slo o to ze sa to stalo pred uvedenim serie HD 6800.
"AMD has demonstrated to Ubisoft tessellation performance improvements that benefit all GPUs, but the developer has chosen not to implement them in the preview benchmark."
Clanok napriklad tu: http://www.legitreviews.com/news/9248/
P.S.: do akej miery to je pravda atd. neviem, ale bol okolo toho vtedy dost velky rozruch.

To je zaujímavé. Nepíšu nikde dôvody prečo sa tak Ubisoft rozhodol. A ani sa nepíše aké improvmenty pre teseláciu AMD navrhovalo. Takto to závisí iba od toho kto komu viac verí. Ja som si myslel, že v HAWX 2 ide čisto iba o implementáciu teselácie s vysokým stupňom zjemnenia čo od istej úrovne malo dosť veľký dopad na AMD karty. Ak si dobre pamätám, tak AMD tento problém vyriešilo tak, že v ovládačoch napevno nastavovalo úroveň teselácie, ktorá pre ich karty nepredstavovala výkonnostný problém. Čo tiež nie je riešenie ale iba taký workaround.

Maudit> Ak som správne pochopil túto recenziu, tak tá "GeForce-crippling featura" tu nebola zapnutá a výsledky sú identické ako v porovnaní z 5.6.2012... teda, vlastne sa zdá, že GTX680 má trochu vyšší výkon vďaka novším ovládačom. ;)

Jsou tam výsledky bez i s ní (protože s GI on to má smysl testovat asi jen na nejvýkonnějších kartách), v celkovém průměru je pak průměr ze všech měření z DiRTa. Takže je tam, s ohledem na zprůměrování s výsledky bez GI v podstatě s poloviční vahou.

Aha, vďaka za upozornenie, nevšimol som si to tam. S pomermi ale tá featurka veľmi nezamávala, tie cca 3% vrámci tej hry podľa mňa nespľňajú kvalifikačné predpoklady pre pomenovanie "GeForce crippling". To by sa tak už asi dal nazvať aj taký MSAA. :D

Hm, tak jsem myslel, ze testovani v surround/eyefinity(popripade ve 3D) bude uz vzdy a zvedne to tento web ("bylo by zde neco co neni vsude) - bohuzel asi:(

Hned v první kapitole je text pod mezinadpisem Ochutnávka z nové metodiky. Jeho přečtení by možná předcházelo tomuto komentáři. Tím ale za Adama neslibuji, že to bude v pravidelných recenzích nových modelů grafik vždy přítomno (já jsem spíš proti, jelikož to je vhodné spíš na specializovaný separátní článek (srovnání), případně tedy na vyzkoušení v té které nové hře (je-li čas)).

Otestovat to do jedné běžné recenze je bez šance, obzvlášť v tomhle případě, kdy jsem do srovnání musel testovat hned čtyři karty.

S ohledem na to, že jde o v podstatě o stejnou kartu s vyššími takty a stejnou kapacitou paměti, není rozdíl ve výkonu v Eyefinity zase tak stěžejní, teď bude mít přednost doplnění dalších her do metodiky a dotažení vysvětlujících textů a nastavení, potom už se budu snažit s novými modely karet vést simultánně (tím myslím co nejčastěji v dodatečném článku po hlavním testu na běžných rozlišeních) i testy s Eyefinity a Surround a případně 3D Vision. Už jen proto, že jsem teď dokupoval vagón delších kabelů s rozličnými konektory, abych kvůli přehazování různých monitorů mezi počítači (třicítka na běžné testy, Acer na 3D Vision a tři fullHD na Eyefinity, které běžně používám jako pracovní) nemusel vždycky stěhovat půl pokoje. I tak už si tu připadám spíš jak v elektru :)

V nadpisu jednoho grafu je zřejmně chyba -
Teplota v Crysis [ot./min]

tak nevím jestli je to s tím novým Dirtem dobrej nápad, možná by v testu mohl být, ale nepočítal by se do průměru stejně jako H.A.W.X. 2 ? Jako hrám co zkreslují průměr se nevyhnem nikdy, ale thle je podle mě moc.

Rád bych ho tam měl, protože má z celé série nejnovější engine a dá se předpokládat, že to budou používat a dále rozšiřovat a komplikovat. Myslím, že to vývojáři (ať už u Codemasters nebo u nVidie, nebo i společně) ještě optimalizují. Nikdo (snad s výjimkou AMD) nemá zájem na tom, aby to bylo na nejvyšších detailech na kartě, jako je GTX 680, nehratelné, a u nVidie o tom už také určitě vědí.

Nádhera. AMD rozmetlo GTX 680 a to už i s minulým modelem :D

No to neeee. Dnes sem prave v alze objednal 680tku asus, tu co dava 1200mhz turbem. Uz to nemuzu vzit zpatky, predobjednavka uzavrena. Doufam ze bude porad rychlejsi nez ghz edice amd :(

Ty rozdíly ve výkonu nejsou ani proti referenční GTX 680 zase tak dramatické (teda pokud nejde vysloveně o DiRT Showdown), a referenční GTX 680 je na tom pořád podstatně líp co do provozních vlastností, a mělo by to platit i pro tu přetaktovanou.

Krásný a hlavně netendenční test jako u jistého Stacha, který bere v potaz jen výsledky s 8xAA a prezentuje to jako že Radeon drtí GF o 20% a když je na to upozorněn tak dá ban. Jste jeden z mála český webů co netestuje účelově.

asi tak nějak. Jediný web který se svýma čtenářama komunikuje, a který se snaží o co největší transparentnost a objektivnost testů.

Malá technická: Graf "výkon/watt" je vo vašom prípade "watt/výkon". Mňa osobne by veľmi potešilo ak by sa testovala priemerná spotreba vo viacerých hrách (ideálne vo všetkých, ale to by asi bolo priveľa), nakoľko podľa webov čo ich testujú viac sa výrazne menia aj pomery medzi kartami.

Davam palec nahoru pro testovani spotreby ze vsech her (prumer, popripade jednotlive pro kazdou hru, kde by se mohli ukazat rozdily) Tolik prace by to nemelo zabrat. Wattmetr muze byt zapojen celou dobu a jenom by se odecitali hodnoty... porad lepsi prumer nez jedna hodnota, ktera nikdy nemusi o dotycneho nastat pac nemusi hrat vubec danou hru.
Pokud si pamatuji "testovani" ze skoly, tak vzdyky minimum a maximum (jednalo-li se o vyrazne skoky lisici se od "prumeru") se do testu nezapocitava. Testu musi byt provedeno dostatecne mnozstvi, abychom byli schopni objektivne rici - TOTO JE PRUMER

Jak se provadi edit prosim ? :(
Jinak timto merenim by se dalo zjistit, ze treba tento test ve kterem provadite mereni spotreby, je prave ten onen test, ktery je anomalii a mel by se vylocit. Neco jako kdyz se nezahrnuje nekdy do testu nejaka hra, kde jsou strasne velke rozdily mezi AMD a nVidii, aby to nezkreslovalo skutecny prumer.

Testování průměru ze všech her nehrozí. Ona to není uplně sranda, při systému, jakým to dělám, si musím hlídat, aby mi nic nepřelezlo přes okno s měřákem (always on top samozřejmě má), a co je horší, výsledek je ve formě CSV s hodnotama, které se samy nezpracují. Třeba u těchto testů jsem měřil i průměr spotřeby v posledním průběhu z Metra, ale přechroustat to do grafů už jsem nestíhal.

U toho testu v Crysis nejde ani tak o spotřebu při běžném hraní, ale právě o ta běžná provozní maxima (jak u spotřeby, tak u teplot a hlučnosti). A ještě se můžou objevit špičky a šum, které nesouvisí se zatížením grafiky, a ty se snažím eliminovat sledováním průměrováním, protože výsledky už opravdu zkreslují.

S měřením průměrné spotřeby při testování, kterým by se jakože simulovala spotřeba při běžném hraní, mám ale obecně jeden zásadní problém – znevýhodňuje výkonné karty. Člověk totiž v praxi obvykle zapíná vsync a tím se dá na spotřebě výrazně ušetřit, protože karta nemusí běžet naplno. V důsledku to může znamenat, že karty, které mají nízký výkon, musí běžet stále na maximu, protože se nedostanou přes 60 fps, zatímco výkonné grafiky si můžou dáchnout a jejich spotřeba bude v praxi nižší na rozdíl od testu výkonu, kde je vsync vypnutý.

S narastajucim rozlisenim a/alebo nastaveniami sa HD 7970 GHz profiluje ako jasny vitaz. Spotreba je sice v porovnani s GTX 680 o dost vyssia, na druhej strane vyssi je aj vypoctovy vykon (u hernych grafik na vypoctovom vykone sice nezalezi, ale pride mi koser to poniektorym pripomenut).
Pokial ide o Dirt: Showdown, kludne ho tam nechajte, akurat porozmyslajte o pridani niektoreho z "ackovych" titulov ako Mafia 2, Hawx 2, Lost Planet 2 alebo Stone Giant na vyvazenie vysledkov :-).

Rozhodně při výběru her do metodiky nehodlám řídit podle toho, co dělají s výsledky na kterých kartách ani podle toho, kdo kde jak spolupracoval nebo nespolupracoval na vývoji a už vůbec ne některé výsledky podobnýma praktikama nějak „vyvažovat“ a celkové hodnocení takhle „objektivizovat“, to už v metodikách dělají jiní experti.

Maximálně to můžeme nezapočíst do průměru, když víme, že to od něj velmi výrazně vybočuje a s ohledem na relativně malé množství her, co lze otestovat, by to výsledky spíš prasilo než upřesnilo.

Já myslím, že je, z hlediska objektivity, vhodné dodat do testu jeden titiul vyloženě favorizující AMD a jeden nVidia.
Jak tvrdíte, ideální je vyloučit tyto testy z celkového hodnocení, ale pro představivost čtenářů se hodí, když názorně ukážete, jak moc "nekalé" praktiky výrobců výkonově ovlivňují protistrany.
s pozdravem, MK
 
pro NV fans: nezapomínejte, že zelení "spolupracovali" na vývoji množství titulů, moralizovat proto AMD není tak zcela na místě. Test akorát dokazuje, že i AMD dokáže takto "spolupracovat" a virtuálně soka shodit.

Akurát, že o žiadne nekalé praktiky nejde. Proste mávali aspoň doteraz obe firmy dosť rozdielne architektúry čipov. NVIDIA si optimalizovala v spolupráci s vývojármi hry na ich karty a nestarala sa ako to pôjde na kartách konkurencie. To isté akurát zatriaľ v menšej miere robí aj AMD. Na tom nie je nič nekalé. Jew to jeden zo spôsobov ako prilákať zákazníkov pre svoje výrobky. Nekalé by to bolo ak by sa vedome zprznil zdorojový kód v neprospech konkurencie a tak by sa umelo znevýhodnili jej karty. A teraz si zober kto by s NVIDIOu alebo AMD spolupracoval po to ako by niečo podobné zisti? Hlavne keď chcú vývojári predávať svoje všetkým? Toto sú proste pridané hodnoty rovnako ako GPU@PhysX, alebo 3D prípadne podpora Eyefinity či Surround. Aj teselácia s vokým stupňom  zjemňovania sem patrí tiež. To len niektorí fanúšikovia akejkoľvek značky z toho robia niečo čo to nie je. To že ide teraz Dirt zle na Kepler kartách musí doriešiť NVIDIA. Aj keď to v podstate robiť nemusí keďže FPS je stále tak dostatok. Jedine tak pre testy kde to proste skreslí výsledky. AMD určite akurát pripravilo alebo aspoň zaplatilo za lepšiu optimalizáciu na svoje karty. Alebo to je celé iba možno probvlém s ovládačmi. Viď DAO II. Táto hra mala dosť biedne výsledky na NVIDIA kartách. S ďalšou verziou ovládačov sa to pekne vrátilo do normálu.

Ohladne tych hier, to nebol navod na to ako to mate robit, len ironia ;-).
 
Neviem sice akym sposobom, ale Dirt:Showdown je optimalizovany na GCN architekturu, podobne ako napriklad http://extrahardware.cnews.cz/forum/viewtopic.php?f=22&t=22709#p301695 a co to spravi s vysledkami mozete vidiet. Otazka je do akej miery je to len optimalizacia. Aby to nebolo nieco viac - napriklad ako PhysX pri hrach na GeForce kartach; no a kedze PhysX AMD karty nedokazu tak sa testuje s GPU PhysX vypnutym, inak by mali v grafoch nulu.

Dirt:Showdown je "podezřelý" ne proto, že AMD tam má vyšší výkon, ale spíše tím podivným propadem výkonu na nových GeForce kartách. Samotná kvalita grafiky se prakticky od předešlých dílů nezměnila, jen je celá hra pro Nvidia karty jaksi o dost náročnější, aniž by to šlo poznat po vizuální stránce.
Otázkou je zda takové hry vyřazovat z průměru. Pamatuji se třeba že se tady testovalo na ANNO, ve kterém u AMD nefungovalo Crosfire a přesto byla hra započítávaná do průměru testů dvoučipových karet. A potom by se zase museli vyřazovat i hry jako Nvidiovská Mafia II, či Battlefield na jehož vývoji zase spolupracuje AMD atd atd.

Jinak spousta prestižních zahraničních servrů to řeší prostě tak že žádnou konečnou tabulku průměrného výkonu nemají. Jednoduše proto, že je to vždy zavádějící.

To s výberom hier podľa spolupráce s AMD alebo NV je hlavne dosť zavádzajúce. Viď napríklad Metro 2033 na ktorom spolupracovala NV a aj tak ide viacmenej lepšie na kartách od AMD. NVIDIA môže spolupracovať s nejakým vývojárskym štúdiom napríklad iba kvôli GPU@PhysX alebo optimalizácii pre 3D. Tieto povedzme doplnky sa ale v klasických testoch vypínajú čím sa vlastne celá spolupráca s NV degraduje. Potom je jednoduché vybrať hry s takouto zámienkou a tváriť sa objektívne že predsa používam v rovnakom pomere hry na ktorých spolupracovala NV a hry na ktorých spolupracovalo AMD.Teda NVIDIA má dnes väčšie portfólio toho čo vie ponúknuť v hrách navyše ako konkurencia, ale v testoch sa to proste nezohľadňuje. To je možno aj dôvod prečo sa AMD k nejakému svojmu vlastnému riešeniu nevenuje, ale ponúka podporu iba technológiám pre všetkých. Čo inak znamená, iba že to znie lepšie pre ľudí, ale vývojovo sa v takýchto smeroch posúva v skutočnosti oveľa pomalšie pretože nikto nebude extra podporovať niečo čo pobeží aj na kartách konkurencie zadarmo. Ale to už som zašiel od témy. :-)

Aby nedošlo k nedorozumeniu, tak to že sa featury fungujúce iba na kartách jedného vývojára čipov v testoch vypínajú nekritizujem. Ale treba to v istej miere zohľadňopvať. To už ale nie je na testerovi, ale na každom z nás podľa záujmu o danú "vec".

V tomto směru chápu, proč nVidia nevydává fyzikální procesory jako zvláštní kartu, do PCIe slotu.

Kedysi sa v testoch mierne namotavalo tzm ze sa tstovalo bez AA
dnes sa dava vsade , co sa zda ako super spravodlive ale
v pripade novej GTX680 je to zavadzanie
AA je prekonana technologia a u Nvidia GTx680 v mojom PC ju nepouzivam pretoze
FXAA je lepsia nieco ako AA+AAA ale bez dopadu na vykon
 
Preto je testovanie iba s AA, dnes uprednostnenim Radeon kariet ktore maju viac ram  a sirsiu zbernicu
a technologicka krasa GTx680 sa potom straca
spickova kvalita obrazu s FXAA a ambient oc + nizka spotreba
 
 JM

Stránky

-->