Reklama

Test GF GTX 670: výkon HD 7970, lepší cena i spotřeba

Příznivce highendových řešení musel pohled na tištěný spoj GTX 670 šokovat. Miniaturní karta si herním výkonem v ničem nezadá s nejvýkonnější kartou konkurence, to vše při lepší spotřebě, hlučnosti a především ceně. Úžasná karta má ale v referenčním provedení svou mouchu.

Test GeForce GTX 670: parametry karty a představení

Test Nvidia GeForce GTX 670: parametry karty a představení

GeForce GTX 670 využívá stejný základ jako GTX 680 – jádro GK104, první 28nm grafický čip Nvidie pro grafické karty do stolních PC s novou architekturou Kepler. A bohužel je to jedna z mála věcí, kterou GTX 670 z GTX 680 co do konstrukce zdědila. Na rozdíl od dřívější běžné praxe je levnější model postavený na zcela odlišném plošném spoji a má také zcela odlišné chlazení. Ale popořádku.

Největší změnou oproti předchozí architektuře Fermi jsou výrazně přepracované streaming multiprocesory (něco jako základní stavební bloky jádra, nově označované jako SMX). Výraznou změnou bylo upuštění od hotclocks, tedy dvojnásobných taktů stream procesorů oproti dalším jednotkám jádra. Aby to neznamenalo propad výkonu, Nvidia ztrátu dohnala výrazným navýšením počtu stream procesorů, v případě GTX 680 je jich trojnásobek oproti GTX 580.

U GTX 670 je jeden z bloků SMX deaktivovaný, celkově jich zůstalo sedm. Výsledkem je nižší počet stream procesorů (1344 oproti 1536 u GTX 680) a nižší počet texturovacích jednotek (112 oproti 128) a počet rasterizačních jednotek zůstal zachovaný.

O něco nižší jsou i takty jádra – základní takt klesl z 1006 MHz na 915 MHz a boost clock z 1058 na 980 MHz.

U Boost Clock se na chvilku zastavím, protože spoustě lidí není pořád jasné, co toto číslo vyjadřuje. Nejde o běžný parametr jak jsme zvyklí a ani nijak garantovanou hodnotu, ale spíše o přibližný průměrný taktu, na kterém by měla karta běžet v běžných hrách. O tom, na jakém taktu karta poběží, pak rozhoduje především vytížení jádra a jeho spotřeba – čím náročnější je testovaný titul a čím více vytěžuje jádro, tím je spotřeba vyšší a hodnota automatického přetaktování nižší. A protože spotřeba souvisí se zahříváním karty, takt jádra klesá i s rostoucí teplotou GPU. Spotřeba čipu se také může lišit v závislosti na kvalitě konkrétního kusu, nakolik to ale může znamenat i rozdílný výkon kus od kusu se dá jen stěží odhadovat.

Takty pamětí jsou stejné jako u GTX 680, a stejná je i šířka paměťové sběrnice 256 b a tím pádem i stejn propustnost pamětí. Standardně je karta osazená 2 GB paměti stejně jako GTX 680. Maximální udávaná spotřeba klesla ze 195 na 170 W.

Karta samozřejmě zvládá i další novinky a technologie, které jsou zmíněné a vysvětlené už v recenzi GTX 680, takže jen telegraficky k těm klíčovým – podpora Nvidia 3D Surround na jedné kartě – tedy zapojení 3 + 1 monitoru, nový způsob vyhlazování TXAA (zatím je nutná implementace ve hrách), adaptivní vertikální synchronizace (pokud framerate klesá pod 30 či 60 fps, automaticky se vypíná, aby karta zbytečně nečekala na další překreslení monitoru).

GeForce GTX 670 test-0000
originál

Samotné provedení krytu už je lehce překombinované až kýčovité, možná jde o paralelu na vypiplanou GTX 690, která s podobným provedením slaví velké úspěchy, ale u černého krytu už to moc nedává smysl. Hlavně vroubkování bude výrobcům asi trochu komplikovat vlastní „polep“ karty a řada z nich možná i z tohoto důvodu standardní kryt nahradila vlastním. Pořád je to ale vypadá líp, než retrodesign některých hranatých referenčních Radeonů HD 6000 nebo Batmobily z řady HD 5000. Na pohmat je zřejmé, že nemá zvlášť robustní konstrukci.  

GeForce GTX 670 test-0001GeForce GTX 670 test-0002
GeForce GTX 670 test-0003GeForce GTX 670 test-0004
originál | originál
originál | originál

U krytu chladiče schází také typický prvek, který dával chlazení GeForce obvyklou výhodu proti starším konkurenčním Radeonům – totiž vykousnutí krytu v místě ventilátoru tak, aby se k němu lépe dostával vzduch při osazení více karet do SLI. U 170W karty to ale zřejmě nebude tak kritické, jako třeba u GTX 580 s TDP 244 W.

GeForce GTX 670 test-0005GeForce GTX 670 test-0006
GeForce GTX 670 test-0007GeForce GTX 670 test-0008
originál | originál
originál | originál

Pokud jste sledovali zprávy, které prosákly před uvedením, asi už víte, že samotná karta vypadá shora mnohem větší než ve skutečnosti je. Chladič totiž přerostl tištěný spoj o bezmála sedm centimetrů – v podstatě o průměr ventilátoru.

GeForce GTX 670 test-0009GeForce GTX 670 test-0010
originál | originál

Zatímco samotný tištěný spoj má jen 17,5 cm a je opravdu kratičká, celá karta i s chladičem už má pár milimetrů přes 24 cm, dokonce o cosi víc, než dříve 23 cm, které byly dříve u Nvidie nepsaným standardem pro karty vyšší střední třídy.

GeForce GTX 670 test-0011GeForce GTX 670 test-0012
originál | originál

Konfigurace výstupů je shodná s GTX 680 – k dispozici je jeden dual-link DVI-I, jeden DVI-D, jeden HDMI a jeden DisplayPort. Tato konfigurace výstupů umožňuje propojení tří monitorů do „jednolité“ plochy (Surround) třeba pro hraní a čtvrtého „informačního“ monitoru na DisplayPort. K výkonnějším Radeonům řady HD 7000 lze standardně v základu (bez „rozbočovačů“ na DisplayPort) připojit až čtyři monitory, kombinace konektorů DVI-I, HDMI a 2× mini DP je ale méně „univerzální“.

GeForce GTX 670 test-0013
originál

Na kartě jsou dva konektory pro SLI, což umožňuje propojení tří či až čtyř karet. Představa čtyř propojených karet s minimalistickým tištěným spojem hodným karet nižší střední třídy je celkem zábavná, ale s ohledem na výkon srovnatelný s konkurenčními highendovými modely to holt své opodstatnění má. Pro přídavné napájení slouží dvojice šestipinových konektorů (teoretické maximum 3× 75 W = 225 W), udávaná maximální spotřeba karty je ale podstatně nižší – 170 W.

Když už jsme u toho napájení – milou drobností je to, že pokud zapomenete připojit přídavné napájení, karta by neměla zůstat „mrtvá“ nebo zuřivě pištět, ale při zapnutí PC by mělo na monitoru naskočit upozornění s tím, že je zapotřebí kabely zapojit.

GeForce GTX 670 test-0014 GeForce GTX 670 test-0015
originál | originál

GeForce GTX 670 test-0016
originál

GeForce GTX 670 test-0017GeForce GTX 670 test-0018
originál | originál

Když jsem testoval hlučnost, trochu mě vyděsilo intenzivní vrčení ventilátoru, který byl u GTX 680 až na obvyklé nešvary celkem bezproblémový a dá se říct, že nadprůměrný. Podobný problém jsem nepředpokládal, ale zaujalo mne to natolik, že jsem se rozhodl kartu ještě na poslední chvíli rozebrat (Už zvenčí dalo vytušit, že by mělo být možné kartu odkrytovat, aniž by si to vyžádalo demontáž pasivu z jádra) a zaměřit se na to, v čem by mohl být problém i za cenu toho, že se kvůli tomu recenze chvíli zdrží.

Další články na téma: 
Oblíbené Tisk E-mail
Reklama

Komentáře

Gtx670 pri uvádzacej cene 395€ za nereferenčné chladenie Gigabyte Windforce 3X je proste BEST BUY! A k tomu je hneď na sklade. Ešte dúfať nech cena klesne na 350-360€ a nie je o čom. Myslím, že toto sa Nvidii vydarilo :)

Celkem čekám že to půjde dolu. NV určitě nastřelila ceny i z důvodu, že nemá proces úplně vyladěn a není také schopna dodávat karty v takovém množství, jako kdyby nasadila cenu o třetinu až polovinu nižší.
Čekám na nějakou nižší verzi s cenou do 6 tisíc. Jinak je zatím můj favorit stále 7850...

přesně, jinou kartu na vážnější hraní nemá význam kupovat. Staré 560tky mají malou paměť, topí a pořád jsou poměrně drahé. Barts Radeony jsou na tom sice se spotřebou lépe, ale zase výkon je celkem nízko a paměť také jen 1GB.
Segment mezi 5-6tisíci je žalostně prázdný a prakticky se tam doprodávají stará topidla, jediná gk s budoucností je ta HD7850.

Nemohu se zbavit dojmu, že když se sundá plastový kryt a odhalí se chladič, tak to vypadá jako low-end maximálně mainstream grafika, to provedení hlavního chladiče je hodně opatrně napsáno "podivné"... Ale proti gustu... Ovšem doporučuji také nereferenční karty, těch bude nakonec stejně hafo a poskytnou nižší teploty, oc v základu a kdo ví, třeba i nějakou tu hru (kupon) free...

jj, ja si pockam na neco od MSI, snad TF3, je to prvni karta z nove generace ktera me nejak zaujala

snad jedine zklamani je zatim obcasna cena nad 8k u nereferencnich verzi, holt dolarek jde nahoru

Doporucil bych vzdycky pred vydanim recenze karty aktualizovat ceny u vsech pouzitych karet na momentalne aktualni - samozejmne skladem. Pouzit nejpouzivanejsi eshopy u nas...

A konkrétně? Možná tam něco málo hlavně u staršího nižšího mainstreamu zůstalo, ale převážná většina by měla být stará asi tři hodiny. HD 7970? Tam jsem měl cenu nejlevnějšího dostupného modelu z CZC, fakt si nevybavím, jak to v tu dobu vypadalo v alfě. Každopádně HD 7970 bude nahrazena za referenční z alfy.

Ano presne tak... kouknul jsem jenom namatkove na HD 7970 protoze se rikalo jak se ma zlevnovat a tech 10800 mi neprislo moc zlevnene...Juknul jsem na alfu a tam bylo skladem 10400. Ostatni jsem dale nekontroloval...CZC byva z "99%" drazsi nez alfa...

Jinak bych zapomnel.... pochvala za recenzi....a hlavne diky ze nepouzivate "trapnou" utilitku na mereni spotreby a duverujete stale mereni ktere pouzivate do ted!

Chtel bych se zeptat, kdy bude ta nova skladba her na testovani nebo to uz je? Nedavno tu byl seznam novych her co jak lidi by si prali atd. a nejak mi uteklo kdy se to bude realizovat ci uz to je?

Nebylo by mozne ve vasich silach ziskat nekde termokameru nebo neco podobneho? Byli by jste prvni v CR na testovani. To stoji za to. Verim tomu i ze by to bylo dost zadany u lidi:)

Možná by se někde našel blázen, co by to na nějakou jednorázovou akci půjčil, ale jinak je termokamera na to, aby se tím jednou za čas změřila nějaká karta, na rozdíl od Frantíků s ohledem na malé české poměry pořád nereálná. I jedno blbé měření od firmy, která to dělá jako službu, stojí majlant. Třeba to časem nějak zlevní, když už to má být povinná výbava dokumentace k barákům.
Testy si stříhnul Mirek na úplně jiné sestavě (a taky to dával dohromady asi měsíc), mě teď ještě záhy čeká GTX 690, možná ještě nějaká GTX 660 a pak už bych konečně rád začal na nové měřit nereferenční modely, aby už na další generaci karet bylo něco do srovnání. Záleží na tom, kolik ještě dojde karet, v poslední době jich bylo tolik, že dávat k tomu za pochodu dohromady ještě novou sestavu a metodiku absolutně nestíhám.

Nevim kolik to stoji, ale libilo se mi jak bylo na CDR/DIIT nejaky termo obrazky od nekud (mozna od tech Frantiku) Jak referencni karty na tom byli lepe nez kde jake nereferencni. Bylo dobre vedet, ze hluk o nejaky ten dB a o "5°C" nizsi teplota na jadre neni jasne vitezstvi :)

Nove testovani:
Jojo, tak nespechejte poradne si to pripravte a z automatizujte:) Potom hura s tim na web. Lepsi sem hodit neco poradneho - profesionalniho nez neco se spousty nedostatky! Drzim palce

Už je tam taky...

Super diky moc. Je videt, ze tato malicka karta bude spise utrpnenim nez klasicky dlouhe karty. Ma to sve opodstatneni. V letnich casech a spatnych skrinich muze vystoupat klidne za hranice 100°C bez problemu.

Termokamera stojí kolem 100k (podle rozlišení, dá se sehnat ale i model alá véčkový mobil s 320x240, který se pohybuje kolem $250-500). Myslím, že byste mohli pochodit třeba u firem zabývajících se izolováním domů - cena fotek baráku ze všech stran se pohybuje kolem 2.500,-

Nabízí se myšlenka že takhle mělo vypadat původní Fermi. A fanatikům koncentrovaným kolem Stacha nastaly zlé časy. Vše čím dřív opěvovaly Radeony má nyní konkurence a v ještě lepším provedení. Podle mých zkušeností jsou GeForce o něco lepší ve všech ohledech. Ony vysoké fps u Radeonek sice vypadají hezky, jenže v praxi značně kolísají. A software AMD je kapitolou samou pro sebe - složité a neefektivní vs jednoduché, logicky a přehledně řazené bez návaznosti na frameworky. Koneckonců žádná hvězda nezáří věčně. AMD si svůj čas v září reflektorů užilo a teď uvolnilo místo lepšímu....

Vzdycky rozhoduje jenom cena... muze to mit vykon treba o 50% vetsi, ale pokud je cena mnohem vyssi a neodpovida narustu vykonu tak to neni dle meho zadne terno. Pritom je jedno ze je to nejlepsi z nejlepsich.

Vracet se zpet nema vubec cenu ani v myslenkach. Minulost byla jednou napsana a i tak zustane. Jednou je nahore ten a potom zase onen. Pokud by to tak nebylo, nebyla by konkurence a vy co tady porad brecite ohledne AMD / nVidii by jste to poznali nejvice, kdyz by vase milovana znacka stale o nekolik tisic vice...

Hlavne by jste si sve stipne poznamky na ruzne lidi mohli nechat pro sebe a netahat/papouskovat je vsude kolem. Zacina to byt uz trapne. Clovek by si pak nekdy rad precetl diskuzi a musi prolouskava se tim smetim jak nekdo nekde porad nekoho urazi/napada.

Presne to co si napisal v tom poslednom odstavci som mu chcel napisat aj ja, nakoniec som si ale povedal ze to nema cenu. Tak aspon takto vyjadrujem suhlas s tvojim nazorom.

ozvali se ti praví :-)
ono to bylo jen malé rejpnutí a červení se už ozývají.
A co se týče smetí, to většinou produkují zarytí obhájci slabší značky. Ale po tom věšteckém debaklu je náramně ticho po pěšině z červené strany :)

Ja viem, od 22.03.2012 sa cca. 6% rozdiely vo vykone nazyvaju debakel. Tak to potom ano, GTX 670 uplne zmasakrovala moju Sapphire HD 7950 OC.

Tak hlavně - vůbec jsi nepochopil, co že je myšleno slovním spojením "věštecký debakl", a NE, nemá to nic společného s GTX670. Z psychologického hlediska je ale přínosné vidět, jakou situaci si vybavíš pod pojmem "debakl", ačkoliv si to sám nechceš připustit a snažíš se obelhat sám sebe.
Za druhé - je velice vtipné, jak sarkasticky komentuješ "pouhých" 6 procent výkonu navíc, ale taktně zamlčuješ velikost čipu, sběrnici, teploty, spotřebu...
Když karta s menším jádrem, menší spotřebou, menší hlučností, menší pamětí, užší sběrnicí, vyšší teplotou porazí o 6 procent konkurenci, co je to jiného než debakl?

Kdyz uz toto ma byt debakl co byla predchozi rada? Všechno co zminujes ze nekdo taktne zamlcuje bylo presne na opak v minule generaci - jenom ten vykon byl +- stejny dle skladby testu. Proste ted je to tak zitra jinak. Ty firmy jsou vyrovnane a nekdy se podari temto lidem neco vice nez tem druhym. Tak to normalne v zivote chodi. Nikdo nemuze byt na vrhcholu porad...Vite co znamena : Pýcha predchazi pad!:)

Edit:
Pro me teda debakl znaci taky neco jineho nez +-6%. Tak jak se povidalo u minule generace. Zakaznika vubec nezajima co je pod chladicem, ani to za jakych podminek to vyrabi hlavni je vykon/spotreba/cena. (pokud je spotreba +- autobus 30W v loadu rozdilna, tak to moc lidi zajimat nebude protoze jsou prevazne v IDLE (tam uz je to defakto stejny), popripade v LOADu nejsou tak dlouho aby to stalo za rec. Pokud pomineme tedy spotrebu (nazorne predvedenou vyse) jsou tedy vetsinou jedine argumenty VYKON/CENA popripadne uzitna hodnota. Pokud mam zaplatit o napr 1000-1500Kc za 6% vykonu nebude me to vubec zajimat a tech 6% klidne vozulim. Toto je ale individualni a prevazne rozhodnou sympatie. (neukazuji na zadne situace jenom to uvadim vse jako priklad)

Připadá Ti to tu jako zákaznický web?

abych utl ty dohady - spojení věštecký debakl je míněno na jisté "dobře informované" individuum podle kterého byl lepší čip od Nvidie absolutně nemožný. Dál to rozebírat nehodlam.

A co se týče minulé generace, ta měla jen jednu chybu - ohromnou výhřevnost. Ale výkon byl brutální. Mám GTX480 a kvůli slabému zdroji jsem ji musel podtaktovat na 450Mhz na jádro a paměti jsem hodil na 4200 efektivně - a výkon je pořád výborný - Metro utáhne i s PhysX, Obliviona na max s HDR a 2X supersamplingem, vše ve fullHD. Radeony jsou hlavně závislé na frekvenci, tam čím víc tím líp, u GF stačí i nižší a výkon tolik nepropadá - v porovnání s HD5800 má stabilnější průběh fps.

4 saruman, Luke10, maltra, dRAhQsCH (a Vam podobnym) ... ako fakt neviem o co Vam ide ... ci ste tu v diskusii len pre to aby ste si masirovali EGO, alebo naozaj nechapem ... co s toho mate ze mate nV alebo AMD ... mate s toho vacsieho pipika ? ... a ten co ma tu "konkurencnu" znacku ho ma mensieho ... ci ako fakt povedzte mi o co Vam tu ide.

Akoze uz je to naozaj trochu trapne ako sa jedna strana (nV) alebo druha (AMD) bucha do hrude ze ta ktora "znacka" ma lepsie produkty. OMG ... ani AMD ani nV karty nevyrabaju ... dokonca ani tie cipy, to vsetko vyrabaju externe firmy (TSMC, ASUS, MSI, GAINWARD, ....).

A neviem ako ostatnym ale mne uz to pomaly zacina liezt krkom. Ak mate potrebu si nieco dokazovat, skuste na sebe pracovat a uvedomit si ze asi nemate dostatocnu sebakontrolu, ked stale dookola vsade pisete tie svoje "propagandisticke prispevky", ktore su stale dookola o tom istom ... to sme kde v nacistickom nemecku (alebo SSSR) ? Alebo dokonca Vam za to niekto plati ?

Tak ako neviem ako vy ale ja kupujem produkty ktore su vyhodne pre mna a nie na propagadnu znacky. Hadam si nekupim 580GTX, ked viem ze 6970 ma rovnaky vykon, ale nizsiu spotrebu atd. Alebo nekupim si 7970 ale radsej 670 ked viem ze za rovnaky vykon zaplatim menej a aj na spotrebe sa mi to odrzkadli. PANEBOZE ... vsak raz je jeden produkt lepsi ako iny ... a potom zas ten iny je lepsi ako ten prvy ... tak to je.

Takze je mi uplne suma fuk co mam v PC ... pokial je to momentalne ta najvyhodnejsia kupa pre moju penazenku ... a to ze VY chcete to alebo ono nikoho nezaujima, iba Vas ... tak to tu prosim netahajte a "vychvalujte" sa pred svojimi "rovnako orientovanymi" kamaratmi ze mate nV alebo AMD, tu to nikoho nezaujima ... tu ludi zaujimaju novinky a tie najvyhodnejsie kupy (pomer cena-vykon).

Takze ako som povedal ze je mi jedno co mam v PC ... ked bola na vrch nV kupil som 5700 ULTRA, potom 6800GT, ked ATi kupil som 1950PRO, potom 3850 a teraz mam 5870 ... no ak o 2 roky bude lepsia nV (AMD) nebranim sa jej kupi len pre to ze naposledy som mal AMD (pred tym nV), ale pre to ze bude vyhodnejsia ako konkurencia a ak uz ani toto nedokazete pochopit ... laskavo sa prestante zapajat do diskusii.

DAKUJEM, PEACE.

Mne ide len o to, aby sa neprekrucovali fakty, o nic ine. Ty si si tu tiez ulavil na sest odstavcov, tak co riesis? ;-)

Na prekrucovani faktu jsi hlavni expert ty, hlavne kdyz to je ve prospech amd a v neprospech cehokoliv jineho.

Napisal som ti uz dakedy ze ako majitel GeForce a niekto, kto na fore pouziva logo Nvidie ako svoj avatar posobis uplne objektivnym dojmom? Tak radsej STFU!

Presne tohle jsem mel na mysli :) Cool sequence, bro...

7970 ma univerzalnejsie puozitie....napr pre niekoho kto chce vyuzivat gpgu vypoctove funkcie..tak je o dost vykonnejsia ako 670 / 680 :) ide o to co kazdy vyuzije.

a to hadanie sa o znackach niekomu sa paci bmw niekomu mercedes :) ja osobne sa riadim tiez podla znacky..ak som spokojny. ficim na kartach od sapphire a neplanujem to menit:) lebo som spokojny :P

Kdo chce využívat GPGU vypočetní funkce pořídí si GTX570/580 pro mnohem lepší softwarovou podporu

tie su slabsie ako radeony 7xxx :) a soft podpora? aj amd ma dobru. ok nebudem sa tu hadat so zelenymi furt.

viperman83 > je videt ze jsi s AMD nemusel jeste nikdy jednat :D, a pokud mas namysli seznam softu, tak to je jen seznam kterej si muzou dat na stranky snad vsichni vcetne treba VIA, se skutecnou funkcnosti je to ale bohuzel dost slabota a hlaska typu ze tvurce SW neruci za spravnou funkcnost dane funkce/pluginu diky detekci neautorizovaneho HW jsou bohuzel dost caste, ale typuju ze to maj neautorizovane prave proto jak funguje jejich podpora pri jednani s tvurci danych softu, cekat alespon na odpoved pri reseni problemu s jejich HW 2 mesice neni u AMD nic vyjimecneho, bohuzel, zvlastni ze u Nvidie jsou schopny odpovidat do druheho dne a i prihodit alespon odkazy na jejich forum kde se dany problem treba resi, v lepsim pripade primo daji kontakt na jejich programatory kteri by meli byt schopni v danem problemu pomoci byt placenou formou, u AMD jen po 2 mesicich odpovedeli ze prijali email, coz u projektu co trva ani ne mesic docela potesi :))

Tak AMD má navrh většinou hlavně v OpenCL, které se ale zase tak moc nevyužívá.
Není to nic o červených a zelených (i když teď jsou vlastně už zelení všichni, po ukončení značky ATI). Je to čistě o praxi. Přímá podpora profi programů pro CUDA je taková o jaké si může nechat AMD jenom zdát. AMD jednoduše v poslední době vše vsadila na OpenCL a vývojářum nedává prakticky žádnou podporu. Naproti tomu Nvdia má své softwerové oddělení, které přímo spolupracuje na implementacích podpory výpočtů přes jejich grafiky.
Ale to je fuk. Lidí co si kupují grafiku primárně na výpočty, či alespoň chtějí aktivně grafiku využívat na výpočty je tak malé množství, že to nemá smysl řešit. Řeší se tady herní grafika.

prave bohuzel AMD vsadilo jen nato ze kdyz to karta podporuje, tak asi pocitaj s tim ze to vsem pojede krasne a bez chyb a vyvojari se pretrhnou aby to pouzivali, coz ale bohuzel neplati

prijde me ze se soutredili jen na benchmarky kde dosahuji krasnych vysledku, a na realny programy ikdyz je jich poskromnu kaslou

"ačkoliv si to sám nechceš připustit a snažíš se obelhat sám sebe" - :-)

Takych "psychologov" ako ty najdem po forach desiatky. Ak sa naucis rozumiet grafom a porovnas si moju kartu s tou dnes testovanou, snad ti dojde ako si mimo.

Vsetky veci co si vymenoval v tom druhom bode boli v dobach GTX 480/580 u high-endu nepodstatne, dnes je to uz samozrejme inak.

"NVIDIA [GTX670] can’t quite beat the 7950 in every game (e.g. Crysis), but when it loses it’s close, and when it wins it’s 15%, 25%, even 50% faster."

http://www.anandtech.com/show/5818/nvidia-geforce-gtx-670-review-feat-ev...

Užij si svou 7950 ;)

Je to opravdu tragédie, když na HD7950 bude mít 100fps místo 130fps na GTX670 :-D

No jo, ale bavíš sa s expertom na čítanie "záverečných hodnotení", nemôžeš po ňom chcieť aby čítal (alebo aspoň pozrel) celý článok. ;) To "close" je totiž asi 15% v Crysis, a asi 25% v Shogun 2. Samozrejme to závisí od nastavení (to aj tie prípady kedy má navrch GTX670), ale u maltrom spomínanej OC verzie to bude tak 23% a 33%. A celkový výsledok samozrejme závisí na skladbe hier a testovacej metodike (lokácii).

Ale aby ma tu niekto hneď nekameňoval, tak jasné že GTX670 vyzerá byť momentálne jednoznačne lepšia herná karta ako HD7950 (záleží aké hry kto hráva, v priemere je však výkonnejšia a má aj slušnú spotrebu).

Jasně, že výsledky jsou ovlivněny skladbou her, nastaveními atd. Je jen velká škoda, že GTX670/HD7950 a vůbec všechny nové karty jsou tak předražené :-)

Covece maltra, napsal jsem ti nekdy ze jsi drzej jak lazenska veverka? Mam dojem ze nekolikrat. Prej souhlasim s nazorem, to je dobre :)

???

Áno Nvidia má jednoznačne vynikájúci výkon žial tá cena - bez komentára.

Nezbavím se dojmu, že ceny nové generace karet (nejen) tentokrát tvořilo AMD, když HD 7970 poměrem cena/výkon trumfla (ve špatném slova smyslu) i relativně drahé GTX 580 a přestřelila je o bezmála tři tisíce. Nvidia už se jen přizpůsobila.
U karet s GK104 jsem extrémně zvědavý, co to udělá časem (jestli dokážou s novými revizemi spadnout cenou tam, kam kdysi 9800 GT nebo GTS 250 a spol., z návrhu se mi to nezdá nemožné), ale skoro highend za šest tisíc, jako v časech 8800 GT a GTX 275, už asi jen tak neuvidíme.

jiz od 3 tydne prodeju GTX680 je naznak ze GK104 nikterak spatnou vyteznost mit nemusi, po celem svete jsou ty karty naprosto bezproblemu skladem, tedy bud se prodavaji spatne, nebo je vyteznost dobra

Vypadá to na fajnovou novinářskou edici, která prvních pár minut vydrží běžet i na 1100, no nic přijde mi to jako jedno z největších šmel. Možná by se měli nově karty při testu zavírat do skříní a začít testovat aspoň po 5 minutách zátěže, výkon by šel do háje.
Já děkuji za pěkný test, některé plus mi přijdou spíše mínus, ale to je jen detail.

Byla zavřená ve skříni, nikterak intenzivně chlazená (viz sestava), a na těch maximálních 1084 jela tři sekundy. Tady je log čtyřicetiminutové zátěže z Crysis.
Na stabilní takt se ze studené karty při stejné zátěži dostane asi po minutě. Každopádně si taky myslím, že minutové testy kartě pomáhají k lepším výsledkům. Většina testů ale jen s minimálníma pauzama trvá dýl.
Ad novinářské superkarty – jednak nikdo nemáme jistotu, že se to nedělá běžně (předtím s cílem vylepšit provozní vlastnosti – spotřebu, výsledky přetaktování, teploty), s chytrými technologiemi (PowerTune, GPU Boost) se to může projevi i na výkonu, jednak nikdo neprokázal, že by nVidia karty záměrně vybírala (nikdo nesebral x samplů, co dostali novináři, a x samplů, co jsou v prodeji, aby je za stejných podmínek srovnal), jednak to Jirka v zápalu boje lehce překroutil a přepískl i to, že si z celé francouzské „kauzy“, navíc postavené na chabých základech, vybral to, co se mu hodilo.
Pokud jde čistě o GTX 670 – kdyby u ní nVidia tímhle způsobem chtěla manipulovat výsledky, asi by na ni osadila trochu jiný chladič.

log - Stránka nebyla nalezena
Ta kauza - nikdo nepsal nic o superkartách, jen že mají lepší "turbo" a opravdu v žádné recenzi nikdo nepsal, že mu běží na tom minimu, které je pro horší kousky. Každopádně u 680 je to opravdu jen kousek i když ve spoustě recenzí to dělá ten náskok, ale obrovský vliv tomu nepřisuzuji, ale u karty která hází místy skoro 200 navíc to dělá podle mě sakra paseku a ve většině případů si člověk domu přinese pro hraní úplně jinou kartu.
Pokud by dávala pro recenze ještě lepší chladič tak by tomu dodala korunu a navíc by to bylo velice okaté...

hm.. nějak se to při vkládání poblblalo, zeditoval jsem to ve zdrojáku. Jede?

díky už to fouká, je ta zátěž je spíše 22 minutová.
Log opravdu užitečný na těch 992 se karta ustálila až po 3 minutách a stále si myslím, že se jedná o povedenější kus. Na druhou stranu těch extrémních 1084 jela vlastně pouze 7+3 sekundy.

Ustálila, víceméně. Ale předtím už to dlouho skákalo jen o jeden krok, a to má na výkon prakticky nulový vliv. Jo, blbec, je to cyklus 20 min zátěž, 20 chladnutí.

No to je právě to boost jede hlavně po dobu testu, ale to už jsem psal a každý kdo chce to moc dobře chápe. Je to podle mě podvůdek myslím, že když vydá amd kartu která jede na 1000 a pošle na testy kartu co poběží 1050 a řekne že nějaké procento pojede na 1050 tak se vsadím, že první co uděláš je, že sundáš frekvence na garantované a otestuješ na nich a ještě budou všude články o tom jak se snaží podvádět. Proto je pro mě nepochopitelné to uvádět jako plus, ale už se ničemu nedivím.

Ale nVidia nevydala kartu, které boost běží standardně na 1000 a u kusů pro recenze na 1050. Nikdo věrohodně neprokázal a asi ani neprokáže, že recenzentské karty jsou lepší než ty, co se prodávají. Na to by musel dát dohromady několik referenčních samplů od nVidie a několik stejných karet z obchod. Podle toho, že jednomu běhá na 1050 a jinému na 1000 se dá poznat leda prd, pokud ty karty nejsou ve stejné sestavě a testované za stejných podmínek.
A co se Radeonů týče, ty nejsou kvůli PowerTune taky na stejných taktech stejně výkonné. Minimálně nereferenční HD 6970 se podtaktovávaly míň než karta s referenčním designem, takže člověk, co si koupil referenční kartu měl nižší výkon než člověk, který si koupil nějaký lepší model na stejných taktech.
Rozdíl je v tom, že zatímco nVidia garantuje základní takt a negarantuje takty u GPU boost, AMD za oficiální specifikace vydává de facto maximální takty, kterých je karta schopná, a to, že se karta při vyšší zátěži podtaktovává a běhá pomaleji, zatlouká. Dokonce natolik, že už to podtaktování podle diagnostických utilit u HD 7000 poznat nejde, i když u HD 6900 to ještě ukazovalo reálnou frekvenci.

Myslím že išlo skôr o to, že mnoho recenzentov testuje napr minútový priebeh a z toho napr 30 sekúnd ide na vyššej frekvencii než na akej sa neskôr ustáli. Rozdiel môže vo výsledku spraviť 1-3% napríklad, čo je stále dobrá presnosť, ale skrátka jej to v recenziách pridá. To bez ohľadu na to, či ide o lepšie kusy alebo nie.

Tým ale nechcem kritizovať Boost či PowerTune, sú to dobré technológie, len to skrátka komplikuje život recenzentom, ktorí chcú svoju prácu spraviť poriadne.

"AMD za oficiální specifikace vydává de facto maximální takty, kterých je karta schopná, a to, že se karta při vyšší zátěži podtaktovává a běhá pomaleji, zatlouká."

Mohol by si toto trochu ozrejmit, nerozumiem tomu. To akoze tych 925 MHz co ma referencna HD 7970 je maximalny takt ktory podla AMD karta dosiahne a aj ten nie je garantovany kvoli PT alebo ako si to myslel? Lebo to znie ako totalna blbost, este som nepocul aby sa niekomu karta na zakladnej frekvencii podtaktovavala kvoli PT, mozno pri nejakom brutus OC so zvysenim napatia.

"Dokonce natolik, že už to podtaktování podle diagnostických utilit u HD 7000 poznat nejde, i když u HD 6900 to ještě ukazovalo reálnou frekvenci."

Toto je v totalnom rozpore s tvojim rozborom HD 7970 ked si to testoval, tam si tvrdil ze takty ani po brutus OC neklesali a to ze PT nezasahuje si potvrdil aj tym ze neklesla spotreba ani vykon (to ze nerastol vykon ako mal bolo tym, ze to brzdili pamate, co si nakoniec aj sam v tom rozbore napisal)? Tak ako?

Asi si zmeškal zaujímavý článok o Caymanoch a PT:
http://extrahardware.cnews.cz/powertune-pod-lupourizeni-spotreby-u-cayma...

U HD7000 vplyv poznáš podľa výkonu, ako napríklad tu na konci:
http://extrahardware.cnews.cz/sapphire-hd-7750-ultimate-teploty-vykon-hl...

Ten prvy clanok som cital, to je ale o Caymanoch a tam sa vedelo ze prva generacia PT robi blbiny (aj preto som radu HD 6900 vynechal), teraz je rec o HD 7900, a tam ten PT nerobi nic co by nemal.
Co sa tyka druheho clanku, to som necital a o PT u HD 7700 som nevedel, ten segment nesledujem. Ale zase tam sa to da pochopit, ved ta karta je chladena pasivne a nema ani napajacie konektory, to naozaj nie je karta na OC hratky. Takze si nemyslim ze to je az take zavazne zistenie.

AMD s uvedením nějak informovalo jen o tom, že PowerTune funguje jinak, ale už se nepochlubilo, jak. Dokumentace k PowerTune veškerá žádná, bohužel je to takový blackbox, do kterého člověk nevidí, vidí jen to, jestli se to na výstupu začne chovat jinak, když se v tom na vstupu povrtá.
Tehdy jsem předpokládal, že se zásah PowerTune dá zjistit stejně jako u HD 6970 nebo 6950 tím, že v monitorovacích utilitách budou padat takty. Bohužel už si teď Radeony HD 7000 v diagnostikách "drží" za všech okolností stále stejnou frekvenci, i když PowerTune prokazatelně zasahuje a karta nějak zpomaluje (a netuším jak a o kolik přesně). Ale to bylo zřetelné vidět až u dalších grafik.

To, že kartu přibrzí PowerTune, už se teď dá poznat asi jen podle toho, že se se zvýšením limitu PowerTune v CCC zvedne spotřeba sestavy i výkon grafiky. Hodně to bylo znát třeba u té HD 7750. Nebylo to určitě tím, že by to byla pasivně chlazená karta, spíš naopak, pasiv je hodně předimenzovaný a jádro mělo lepší teploty, než mívají aktivně chlazené karty. A i kdyby, totéž mi to dělalo i u aktivně chlazené referenční grafiky. Domnívám se, že na vině byl hlavně 75 W limit pro napájení přes sběrnici, a to, že mi ta karta s některými zdroji blbla, zatímco podstatně žravější karty s přídavným napájením na stejném zdroji fungovaly, mě v tom jen utvrzuje.
Jestli k tomu u těch prvních referenčních HD 7970 určitě nedocházelo už asi neověřím, ty karty už tu nemám. Zřejmě se (přinejmenším nijak výrazně) nepodtaktovávala, protože měla relativně nízké takty a se zvýšením limitu se nezdálo, že by nějak měřitelně rostl výkon nebo spotřeba sestavy a s přetaktováním výkon taky nějak rostl.

Budem mat snad cas sa pohrat s mojou kartou v dohladnej dobe (HD 7950 OC), tak to vyskusam a pripadne dam vediet.

Mám tu teď nereferenční od Sapphire. Ale jednu věc jsem teď... GPU-Z podle všeho to podtaktovávání přece jen na rozdíl od Afterburneru detekovat umí. :-O Bohužel už jsem jej v poslední době na logování používal jen když Afterburner blbnul nebo nepoznal grafiku.

Mám tu HD 7850 OC, a u ní mi takt po snížení limitu na PowerTune skáče mezi 975 a 450 MHz. Blbé je, že to loguje jednou za sekundu, Afterburner to umí po 0,1 s.
Edit: tak přece jen ani to GPU-Z nefunguje dokonale, aspoň u téhle karty mi nerozlišuje nic jiného než 450 nebo 975 MHz (PowerTune -20%). Při -10 % už se karta tváří na stabilních 975 MHz, ale spotřeba i výkon je pořád nižší než na 0 %.

Mne to vyslo takto. Dve merania vykonu v AvP cez Fraps v krokoch po 5%.

P.S.: su to priemerne a minimalne FPS v dvoch meraniach (I. a II.), zabudol som to do tej tabulky dat.

Hm.. OC verze. Tam už je pravděpodobné, že Sapphire ten limit v biosu nastavil jinak než u referenčních karet, a vypadá to, že pro normální hry celkem rozumně s rezervou nějakých 5 %.
Ta minima jsou ale celkem drsná a v rozporu s tím, co hlásá AMD a následně Jirka Souček, teda že PowerTune je pokročilejší a dovolí podtaktovávat rychle a po malých krocích, takže se to na plynulosti hry nepozná. A tak v tomto konkrétním případě už těch -20–(-15) % zase není moc reálných.

Ja by som to nevidel nijak tragicky, proste minimalne tie nereferencne grafiky by nemali mat ziadne problemy s PT a to ani pri vyraznom pretaktovani a zvyseni napatia. Ale to budem este len testovat.

Edit: len narychlo som otestoval kartu na 1 GHz bez zvysenia napatia, takto to dopadlo:

PowerTune 0% -> I.meranie: 62.7 / 40 (avg / min)
II. meranie: 62.8 / 39

PowerTune +20% -> I. meranie: 62.7 / 39
II. meranie: 62.9 / 40

Este len pre zaujimavost, zvysil som takt pamati z 5.0 GHz na 6.0 GHz -> 65.9 / 42

Adam Vágner> Asi tie kroky nie sú až také malé, ostatne ani u Caymanu podľa toho tvojho článku neboli malé... skôr naopak. V tomto to má NV rozhodne lepšie. Ale oprav ma ak sa mýlim, Power Tune vyzeralo že zasahuje od počiatku rovnako (Cayman), ale Boost u NV je dosť závislý na teplote a tak zasahuje na začiatku viac ako neskôr, čo z neho robí taký "trochu-cheat" pri benchmarkoch. Tým nechcem povedať že bolo navrhnuté za týmto účelom (výsledná ustálená frekvencia je asi vždy vyššia než Base Clock), je to len dôsledok.

Ty mě stále nechápeš nebo nechceš jsou to totiž dvě věci:
1) nvidia udělá "test boost", který je zaměřen na testy magazínu takže nejvíce funguje první minutu až tři a nikdo proti tomu nic nenamítá a ještě to dává za bonus a sám uznáš že mít tři minuty více snímků je při hraní na nic vlastně je to ještě horší protože ti kolísá frekvence.
2) navazuje na první bod - vlastnost kterou mají všechny karty a jen tomu dodává ještě větší punc podvodu, že nvidia ještě na testy pošle povedenější jádra které "test boost" zvládají ještě lépe než všechny ostatní.

Nvidia měla na test poslat karty které splňují garantovaná specifika a ne balamutit karty které dokáží tři minuty držet výkon navíc což je jasný podvod na chudácích co si na základě takového testu kartu pořídí a hrají déle než tři minuty a ještě mají smůlu na horší kus.
PowerTune rozhodně není dokonalý, ale určitě nebyl zamýšlen jako podvod při testech (vlastně při nich může spíše ublížit), ale 3 minuty výkonu navíc je evidentní jako záměr zmanipulovat většinu testů, který krásně vyšel.

Samozřejmě že vím, o čem je řeč.

1) můžu mluvit jen za nás, většinu testů ta karta neprohrčí jednou, měří se víc rozlišení a opakovaně, jeden běh obvykle trvá 1-2 min. a mezi tím opravdu nestihne vychladnout. Ergo zkreslený je tak první průběh prvního měření, další už jsou stabilní a výkon není vyšší. Každopádně je to jedna z věcí, kterou jsem hodlal už s uvedením GTX 680 vyzkoušet, až na to bude čas a nebude do čeho píchnout (obvykle v okurkové sezóně). Pokud to tak bude, budou se muset nějak změnit metodiky (a co je horší, testování bude kvůli tomu trvat dýl). Ale rozdíl 20-50 MHz, o který už se ta karta po pár sekundách hýbe, stejně s výsledným průměrem udělá celkem prd.
Nvidia tímhle způsobem může lépe využít obálku TDP (na rozdíl od PowerTune, které pořád musí mít nějakou rezervu, jinak se karta podtaktovává), a dokáže garantovat minimální výkon na tom základním taktu. Nemyslím si, že je to záměr s cílem ovlivnit recenze, je to jen důsledek. To, že se karta první minutu zahřívá a roste jí při stejné zátěži spotřeba není něco, co by vymyslela nVidia, tak je to odjakživa. Jediné, jak by se tomu, aby karta byla ze začátku rychlejší, dalo zabránit, je, že by ji navíc první minutu regulace nějak nepustila na maximální takty. Ale proč to dělat? Tohle je spíš problém testovacích metodik.
2) Nikdo nijak nedokázal a neprokáže, že nVidia posílala záměrně do testů výběrové karty a lepší karty, než se dají běžně koupit. To by musel stáhnout nerozebírané samply z několika redakcí a porovnat to s několika kusy z obchodů. Stejně tak asi nikdo neprokáže, že se karty se snahou vylepšit výsledky recenzí (teploty, hlučnost, spotřeba) nevybírají u nVidia a AMD odjakživa a je to standardní postup. A zrovna tyhle vlastnosti mě u karet zajímají víc, než to, jestli má výkon lepší nebo horší o 1,5 %.

ostatne u obou "znacek" jsou k mani OC modely ktere u AMD daji vice a nepodtaktovavaji se, a u Nvidie totez s vetsima garantovanejma taktama v zakladu a dalsim boostem

nevidim v tom moc problem ani na jedne strane, kor v situaci kdy se OC modely daji obcas koupit za obdobnej peniz, proste jen dalsi kauza ktera bobtna zabomisi valky mezi proznivci danych znacek :)

imho to nekvalitní chlazení má řešení celkem snadné:

http://www.czc.cz/gigabyte-gtx-670-ultra-durable-oc-2gb/107716/produkt

;)

a věřím, že ten tišťák pod tím accelero chladičem také nebude referenční, pokud je ta fotká správná :D

Vsadil bych vlastní boty na to, že jde o uplně stejný tišťák jaký má nereferenční GTX680 od Gigybytu.
A věřím že touto cestou půjde většina výrobců - než aby vyvýjeli samostatný nereferenční chladič pro GTX670, raději vezmou o kousek dražšší tištěný spoj pro GTX680 a použijí své osvědčené chladiče.

nech si to za tú cenu nechajú

Stejný výkon jako u konkurence za zhruba tisíc korun méně a jako bonus o řádný kus nyžší spotřeba. Tak jaké pak copak. Teď je to na AMD zda cenově zareaguje. Nvidia by musela být blbá, kdyby výkon HD7970 prodávala za cenu HD7950/7870.

Dobré počtení, jen bych se chtěl zeptat, jestli by nebylo možné grafy v sekci "spotřeba, teploty" setřídit např. vzestupně? Teď mi v tom přijde docela maglajs...

Ten maglajz je tam kvůli tomu, že jsou všechny karty ve všech grafech seřazené stejně, aby se neměnilo pořadí. Podle celkového průměrného výkonu.
Časem, jestli se mi to podaří konvertovat na interaktivní grafy, už by to mohlo jít samo dle libosti.

Príde tento mesiac aj GTX 660Ti?

taky mě to zajímá ... toto bude ten sweet pot, nebo jak se tomu říká, grafiku za 10 000,- si koupí málokdo ...

GTX660 někdy v létě.

Podľa Videocardz.com má vyjsť GTX 660Ti v máji a GTX 660 v Q3 2012.

Třetí čtvrtletí bývá v létě,tedy alespoň u nás.Nevěř všemu co se píše na Videocards(GTX670Ti ,GTX660Ti).

tak to je dost pozdě :)

Zatím jediné plus, které by mě donutilo ke koupi 28nm grafiky je uvedená technologie. Vyšší výkon nepočítám, protože ten beru jako samozřejmost. Z téhle referenční zkráceniny jsem hlavně znechucený. Dříve jsem ani neuvažoval o referenčním radeonu a teď už ani o referenční nvidii. Snad do zimy klesne cena všeho na 28nm, protože zatím je to mizérie akceptovatelná jen pro lidi co musí koupit novou kartu. Po GTX 690 další divná karta...

Co je divneho na 670 a 690?

protože jsou to virálni karty asi néé:))

Karty su to nepochybne suprove v porovnani s konkurenciou a podobne ale nejako mi tu chyba poriadny monstrozny High-End bez kompromisov. Mi to pride ze sa nam tu predama mainstream za cenu high Endu.

GTX 690 ti nepřijde jako dostatečně monstroózní :)

Poriadny single chip HE.

imho smutné na těch kartách (gtx 680/670) je, že jsou to herní kousky a mají maximálně ořezané výpočty plovoucí čárky s dvojnásobnou přesností (fpdp), což může do budoucna celkem chybět.
je pravda, že jen díky tomuto ořezání dosáhla nvidia u nových karet tak nízké spotřeby.

naproti tomu karty AMD série HD7900 mají výpočetní výkon fpdp vylazený na maximum, takže dosahují mnohonásobně lepších výsledků.

http://www.tomshardware.com/reviews/geforce-gtx-680-review-benchmark,316...
http://www.brightsideofnews.com/news/2012/3/22/nvidia-gtx-680-reviewed-a...

myslím si, že by stálo za to, to v testech zmínit, aby případní zákazníci o tom věděli a necítili se podvedeni, že si koupili horší kartu než byla jejich GTX580, která výpočty fpdp zvládá také výrazně lépe než nové karty.

jesi ono to nebude i tim, ze GTX680/670 jsou spise nastupcem GTX460/560, aneb GF104/114 a GK104

nekdo kdo ocekava od VGA i vypocty GPGPU tak pravdepodobne testy ktere se na toto zameruji davno zna, a take vi ze benchmarky v tomto zamereni ukazuji diametralne odlisne vysledky od skutecne pouzivanych softu, protoze ty softy nejsou tak "odladene-ucinne" diky komplexnosti funkci, a nezameruji se jen na strohy vypocet jako benchmarky

me treba v photoshopu GTX680 nijak neprekvapila ani nezklamala, od GTX580 me to filtruje +- nastejno, a ze momentalne pracuju s file co maji i 4GB, tedy docela dost casu nato aby se rozdil projevil, a ac si GTX680 nekoupim, tak nato ze karta navazuje na GTX560 ma slusne vysledky

imho gtx 680/670 jsou jistě výborné "eco" karty pro hráče, o tom nepochybuji.

jen si myslím, že není úplně fér porovnávat dvě karty, které jsou jinak zaměřené a nezmínit se o tom v testu.

dva roky zpátky nvidia dělala v každé prezentaci strašný humbuk o tom, že její gtx 480/580 jsou karty zaměřené hlavně na výpočty a tedy jejich výhoda proti konkurenci tehdy byla hlavně ve výpočtech v plovoucí čárce s dvojnásobnou přesností.
dnes, kdy karty konkurence (HD 7900) v těchto výpočtech mají několikanásobnou převahu se o tom jaksi radši ani nepíše...

to je ale spolecne pro obe dve staje, byli by blby zdelovat svetu v prezentacich slabyny vlastnich produktu, pokud vydaji neco vetsiho se zamerenim na GPGPU tak se s tim jiste opet pochlubej, ale u GK104 se s tim pokud vim nikde nechlubili, ja snad ve spojeni s timto GPU nevidel ani nic kde by neco zdelovali ohledne CUDA, proste vsude prezentovano jako ciste herni produkt

a anoo Nvidia delala humbuk, ale delala ho pro karty GTX480 potazmo nastupce GTX580, nikoliv vsak pro GTX680/670

pak ty karty neměli nazvat gtx680, když jsou to o řád horší karty než předchozí gtx480/580.
vydat současnou verzi jako gtx660, tak by to byla bomba... ať si hráči šmáknou, stejně jako s gtx 460/560.
je to smutné, že se snížili k takovému marketingovému "podvodu".
ale což, hold je třeba počkat si na nové quadro karty, ty jistě nebudou postavené na stejném jádře, jen budou znatelně dražší bohužel.
nejspíš někomu v nvidii došlo, že stavěním předražených quadro karet na stejných čipech jako geforce se akorát připravují o peníze.

to si nemyslim, pokud bude nejaky vissi model GPU, tak jiste zamiri i na herni kartu, stejne tak nizsi varianty Quadro karet jiste postavej na Keplerech ktere jsou a budou i na hernich kartach, oblast Quadro a Tesla karet jim sice vydelava, ale proc na danem produktu nevydelavat i dal jinde

to co Quadro a Tesla karty hodne odlisuje a jiste odlisovat bude jsou ovladace, odladene presne na to na co maji odladene bejt

a k tomu "podvodu", nazev GTX660 nepouzili jiste zcela zamerne, aby si tento nazev nezazdili, konkurence jim dala moznost pro GK104 velkou volnost s cenou a GTX660 by pri cene $500 spise lidi odradila nez nadchla, s nazvem GTX680 si proste tu cenu mohli dovolit, je to business o miliardy ne charita, a Nvidia se zodpovida akcionarum, nikoliv zakaznikum

Je to stejně neférové, jak srovnávat výkon SSD s HDD, výkon dvoujádra se čtyřjádrem, výkon mainstreamové grafiky s highendovou, nebo výkon chladiče za osm set s chladičem za patnáct stovek. Každý je určený jinam, a pro jiný segment, a stejně se to porovnává.
nVidia dělala humbuk kolem GPGPU od uvedení GTX 280, gradovalo to s Fermi. V případě Fermi na vyšší výkon pro GPGPU nejspíš doplatili hráči (jednak spotřebou, jednak že vývoj zasponzorovali v herních grafikách). Svůj účel to splnilo, klasické GeForce byly dost rozšířené a relativně výkonné a levné na to, aby to pro vývojáře bylo dost zajímavé. Bylo zajímavé trochu je zpopularizovat a alespoň touto cestou tomu pomoci, protože to konečně může kousek jinam posunout segment PC, ve kterém se co do výpočetního výkonu už léta nedělo v podstatě nic jiného, než že velmi vlažně roste výkon CPU a lepší se poměr výkon/watt. 
Co se technologií týče, nVidia se je snaží propagovat, mluví o nich, píše o nich, investuje do nich. U AMD se to bohužel až moc často v prezentacích krátce odbude jedním či dvěma slajdy a komentářem v duchu my to (už) umíme taky (s nějakou alternativou), a pochlubí se podporou pro řešení, které vzniká díky třetím stranám a fungují na obou platformách (mluvím hlavně o alternativách k CUDA, PhysX a 3D). Prostor, který se tomu věnuje v článcích, je pak více či méně přímo úměrný tomu, jaký tomu věnuje sama společnost ve svých prezentacích. Když dal výrobce vědět, co se změnilo a co u GPGPU vylepšil, tak se o tom většinou napsalo. 
Sám jsem to, jestli je u GPGPU výkonnější AMD nebo nVidia a v čem, nikdy a nikde v recenzích moc neřešil. Jako většině lidí mi u herních grafik šlo primárně o výkon ve hrách. Nemyslím, že je to chyba, lidi, které opravdu zajímá GPGPU, zase nechodí na rozumy do porovnání grafik v herních testech nebo na recenze, kde to někdo protáhne nějakými syntetickými testy GPGPU, které kdosi kdesi uplácal a dá to do recenze, aby si mohl udělat fajfku u kapitoly výkon v GPGPU.

V tomhle oboru se nepohybuju a nikdy pohybovat nebudu, stěží o tom můžu něco fundovaně psál. Můžu to řešit tak, jako většina ostatních, teda že někde vyhrabu nějaké jakože výpočetní benchmarky nebo zkopíruju cizí metodiky a budu se taky tvářit, že tomu rozumím, jako většina ostatních, co o tom rádobysofistikovaně mluví... ale nechtějte to po mě. Pokud se najde někdo, kdo je schopný o tom sofistikovaně a objektivně a napsat článek, milerádi mu dáme prostor i honorář. :)

Jak tak procházím diskuze, z reakcí lidí, co s GPGPU programují, většinou je spíš než hrubý výkon v nějakém benchmarku zajímá technická podpora ze strany výrobce a ekosystém, a s tím je na tom podle nich nVidia podstatně líp. Zatím jde víceméně o dva rozdílné světy – OpenCL vs. proprietární CUDA.
Pokud ořezané GPGPU znamená nižší spotřebu, tak to vítám, i když mě na druhou stranu může mrzet, že herním GeForce už to nepůjde tak rychle. Ale s ohledem na to, že ze všech GPGPU aplikací používám tak akorát enkodér videa od AMD, když chci jednou za dva měsíce překódovat záznam z frapsu pro upload na YouTube, a většina lidí ani to...
Zvláštní je, že většinou stejní lidé, kteří před dvěma lety vykřikovali, že jim někdo cpe GPGPU, které je nezajímá a je k ničemu (a pohoršovali se nad tím, jak někdo někomu sedl na lep), si teď zase stěžují, že je v něm "highendový" čip AMD lepší než "mainstreamový" čip konkurence a v recenzích se dostatečně to nezdůrazňuje a že srovnávání je vlastně nefér. Zvláštní je i to, že stejný problém neměli, když se porovnávala spotřeba HD 5870 a GTX 480, která na to škaredě doplácela. To bylo naopak radosti z toho, jak je to neefektivní obrovský dinosaurus a jak je AMD technologicky dál, že... :) Vím, že ten zápal většinou není z jejich vlastní hlavy, no, ale chodit na rozumy zrovna k takovému zdroji...

V zásade máš pravdu (okrem toho prvého odstavca, podľa mňa sú to všetko veľmi dobre porovnateľné veci).

Ale k poslednému odstavcu: Uvedomuješ si iste, že od uvedenia Fermi už ubehlo dva roky, a za ten čas sa využiteľnosť GPGPU zlepšila. Pre niekoho je to už dostatočné, pre niekoho nie (napríklad pre mňa sú možnosti akcelerovaného enkódovania videa stále "nepoužiteľné" = nie som ochotný obetovať kvalitu za rýchlosť). Je mi samozrejme jasné, že to zlepšovanie bolo urýchlované aj tým, že bola tá možnosť dostupná (hlavne vďaka Nvidii), ale skrátka pri uvedení Fermi bolo GPGPU pre bežného domáceho užívateľa PC ešte stále zbytočnosť za ktorú platil.

asi jsem to nenapsal dobře... nepsal jsem, že je nefér to porovnání jako takové, porovnání je super... psal jsem, že je nefér se nezmínit o DP... zvláště když se předtím přepísknutá spotřeba gtx480 omlouvala "vysokým" výkonem v DP a teď, když HD7970 mají mnohonásobně vyšší výkon v DP než gtx680 se čtenář nedozví proč je takový rozdíl ve spotřebě ;)

treba proto ze Adam proste tyhle testy nedela, predtim to mam pocit testoval Mirek Jahoda a mel proste jinou skladbu testu kde bylo i nejake to GPGPU

sak mame navyber a neni problem si ty testy GPGPU dohledat jinde ne?

--
a ten zajem o testy GPGPU myslim opadnul nejen ze strany recenzentu, ale i ze strany ctenaru, tenkrat to byla velka boom a novika, dnes je to na vetsine servru jen snuska nicnerikajicich benchmarku ktere o skutecnem GPGPU dane karty v realne pouzivanych softech stejne reknou kulove, kdybych mel koukat na vysledky na ruznych servrech, tak GTX680 bude totalni propadak v teto oblasti, protoze v benchmarcich to proste oproti GTX580 projizdi na plne care, v Photoshopu mam ale vysledky takove ze je to plichta, pritom jedine kde jsem narazil na Photoshop a mereni v nem je snad Swethardware a tam projistotu GTX680 v danem testu ani nenamerili (jestli jim to nefungovalo, netusim?)

pokud nekoho zajima test GPGPU tak si ho proste najde a stejne vetsinou bude koukat spise nato jak si povede v realnych softech, kde Nvidia zase v 90% bude sazet na CUDA a tak je stejne konkurence diskvalifikovana, OCL je momentalne zajimava vpodstate jen coby benchmarkova vychytavka a dase rict jen na honeni ega ci karta je v tom benchmarku lepsi :) verim tomu ze pokud se objevej nejaky aplikace co budou stavet na OCL a bude tam moznost merit rozdil mezi kartama ale treba i procesorama, tak se toho jiste chytej i zde na EHW

Všiml si někdo, jak po vyjasnění jak to bude s GF 670 začly růst ceny 7850 Radeonů? Už jsou skoro u 6 tis, zvlášť nereferenční edice....
Pomalu to vypadá na kartel - asi už mají dost cenové války a tak si dali pauzu na oškubávání kupujících.

to se ti jen zda, staci se podivat na shopy kde maji hystorii cen, zadne drama se nekona, a pokud tam nejaky posun je, klidne zato muze moct i dolar a koruna, aneb jedno posiluje a druhe krute oslabuje

hystorii? nebo jsi myslel snad hysterii? :D

Reklama
-->