Test GF GTX 670: výkon HD 7970, lepší cena i spotřeba

Příznivce highendových řešení musel pohled na tištěný spoj GTX 670 šokovat. Miniaturní karta si herním výkonem v ničem nezadá s nejvýkonnější kartou konkurence, to vše při lepší spotřebě, hlučnosti a především ceně. Úžasná karta má ale v referenčním provedení svou mouchu.

Test GeForce GTX 670: parametry karty a představení

Test Nvidia GeForce GTX 670: parametry karty a představení

GeForce GTX 670 využívá stejný základ jako GTX 680 – jádro GK104, první 28nm grafický čip Nvidie pro grafické karty do stolních PC s novou architekturou Kepler. A bohužel je to jedna z mála věcí, kterou GTX 670 z GTX 680 co do konstrukce zdědila. Na rozdíl od dřívější běžné praxe je levnější model postavený na zcela odlišném plošném spoji a má také zcela odlišné chlazení. Ale popořádku.

Největší změnou oproti předchozí architektuře Fermi jsou výrazně přepracované streaming multiprocesory (něco jako základní stavební bloky jádra, nově označované jako SMX). Výraznou změnou bylo upuštění od hotclocks, tedy dvojnásobných taktů stream procesorů oproti dalším jednotkám jádra. Aby to neznamenalo propad výkonu, Nvidia ztrátu dohnala výrazným navýšením počtu stream procesorů, v případě GTX 680 je jich trojnásobek oproti GTX 580.

Reklama

U GTX 670 je jeden z bloků SMX deaktivovaný, celkově jich zůstalo sedm. Výsledkem je nižší počet stream procesorů (1344 oproti 1536 u GTX 680) a nižší počet texturovacích jednotek (112 oproti 128) a počet rasterizačních jednotek zůstal zachovaný.

O něco nižší jsou i takty jádra – základní takt klesl z 1006 MHz na 915 MHz a boost clock z 1058 na 980 MHz.

U Boost Clock se na chvilku zastavím, protože spoustě lidí není pořád jasné, co toto číslo vyjadřuje. Nejde o běžný parametr jak jsme zvyklí a ani nijak garantovanou hodnotu, ale spíše o přibližný průměrný taktu, na kterém by měla karta běžet v běžných hrách. O tom, na jakém taktu karta poběží, pak rozhoduje především vytížení jádra a jeho spotřeba – čím náročnější je testovaný titul a čím více vytěžuje jádro, tím je spotřeba vyšší a hodnota automatického přetaktování nižší. A protože spotřeba souvisí se zahříváním karty, takt jádra klesá i s rostoucí teplotou GPU. Spotřeba čipu se také může lišit v závislosti na kvalitě konkrétního kusu, nakolik to ale může znamenat i rozdílný výkon kus od kusu se dá jen stěží odhadovat.

Takty pamětí jsou stejné jako u GTX 680, a stejná je i šířka paměťové sběrnice 256 b a tím pádem i stejn propustnost pamětí. Standardně je karta osazená 2 GB paměti stejně jako GTX 680. Maximální udávaná spotřeba klesla ze 195 na 170 W.

Karta samozřejmě zvládá i další novinky a technologie, které jsou zmíněné a vysvětlené už v recenzi GTX 680, takže jen telegraficky k těm klíčovým – podpora Nvidia 3D Surround na jedné kartě – tedy zapojení 3 + 1 monitoru, nový způsob vyhlazování TXAA (zatím je nutná implementace ve hrách), adaptivní vertikální synchronizace (pokud framerate klesá pod 30 či 60 fps, automaticky se vypíná, aby karta zbytečně nečekala na další překreslení monitoru).

GeForce GTX 670 test-0000
originál

Samotné provedení krytu už je lehce překombinované až kýčovité, možná jde o paralelu na vypiplanou GTX 690, která s podobným provedením slaví velké úspěchy, ale u černého krytu už to moc nedává smysl. Hlavně vroubkování bude výrobcům asi trochu komplikovat vlastní „polep“ karty a řada z nich možná i z tohoto důvodu standardní kryt nahradila vlastním. Pořád je to ale vypadá líp, než retrodesign některých hranatých referenčních Radeonů HD 6000 nebo Batmobily z řady HD 5000. Na pohmat je zřejmé, že nemá zvlášť robustní konstrukci.  

GeForce GTX 670 test-0001GeForce GTX 670 test-0002
GeForce GTX 670 test-0003GeForce GTX 670 test-0004
originál | originál
originál | originál

U krytu chladiče schází také typický prvek, který dával chlazení GeForce obvyklou výhodu proti starším konkurenčním Radeonům – totiž vykousnutí krytu v místě ventilátoru tak, aby se k němu lépe dostával vzduch při osazení více karet do SLI. U 170W karty to ale zřejmě nebude tak kritické, jako třeba u GTX 580 s TDP 244 W.

GeForce GTX 670 test-0005GeForce GTX 670 test-0006
GeForce GTX 670 test-0007GeForce GTX 670 test-0008
originál | originál
originál | originál

Pokud jste sledovali zprávy, které prosákly před uvedením, asi už víte, že samotná karta vypadá shora mnohem větší než ve skutečnosti je. Chladič totiž přerostl tištěný spoj o bezmála sedm centimetrů – v podstatě o průměr ventilátoru.

GeForce GTX 670 test-0009GeForce GTX 670 test-0010
originál | originál

Zatímco samotný tištěný spoj má jen 17,5 cm a je opravdu kratičká, celá karta i s chladičem už má pár milimetrů přes 24 cm, dokonce o cosi víc, než dříve 23 cm, které byly dříve u Nvidie nepsaným standardem pro karty vyšší střední třídy.

GeForce GTX 670 test-0011GeForce GTX 670 test-0012
originál | originál

Konfigurace výstupů je shodná s GTX 680 – k dispozici je jeden dual-link DVI-I, jeden DVI-D, jeden HDMI a jeden DisplayPort. Tato konfigurace výstupů umožňuje propojení tří monitorů do „jednolité“ plochy (Surround) třeba pro hraní a čtvrtého „informačního“ monitoru na DisplayPort. K výkonnějším Radeonům řady HD 7000 lze standardně v základu (bez „rozbočovačů“ na DisplayPort) připojit až čtyři monitory, kombinace konektorů DVI-I, HDMI a 2× mini DP je ale méně „univerzální“.

GeForce GTX 670 test-0013
originál

Na kartě jsou dva konektory pro SLI, což umožňuje propojení tří či až čtyř karet. Představa čtyř propojených karet s minimalistickým tištěným spojem hodným karet nižší střední třídy je celkem zábavná, ale s ohledem na výkon srovnatelný s konkurenčními highendovými modely to holt své opodstatnění má. Pro přídavné napájení slouží dvojice šestipinových konektorů (teoretické maximum 3× 75 W = 225 W), udávaná maximální spotřeba karty je ale podstatně nižší – 170 W.

Když už jsme u toho napájení – milou drobností je to, že pokud zapomenete připojit přídavné napájení, karta by neměla zůstat „mrtvá“ nebo zuřivě pištět, ale při zapnutí PC by mělo na monitoru naskočit upozornění s tím, že je zapotřebí kabely zapojit.

GeForce GTX 670 test-0014 GeForce GTX 670 test-0015
originál | originál

GeForce GTX 670 test-0016
originál

GeForce GTX 670 test-0017GeForce GTX 670 test-0018
originál | originál

Když jsem testoval hlučnost, trochu mě vyděsilo intenzivní vrčení ventilátoru, který byl u GTX 680 až na obvyklé nešvary celkem bezproblémový a dá se říct, že nadprůměrný. Podobný problém jsem nepředpokládal, ale zaujalo mne to natolik, že jsem se rozhodl kartu ještě na poslední chvíli rozebrat (Už zvenčí dalo vytušit, že by mělo být možné kartu odkrytovat, aniž by si to vyžádalo demontáž pasivu z jádra) a zaměřit se na to, v čem by mohl být problém i za cenu toho, že se kvůli tomu recenze chvíli zdrží.

Další články na téma: 
Oblíbené Tisk E-mail

Související články

Reklama

Komentáře

No to je právě to boost jede hlavně po dobu testu, ale to už jsem psal a každý kdo chce to moc dobře chápe. Je to podle mě podvůdek myslím, že když vydá amd kartu která jede na 1000 a pošle na testy kartu co poběží 1050 a řekne že nějaké procento pojede na 1050 tak se vsadím, že první co uděláš je, že sundáš frekvence na garantované a otestuješ na nich a ještě budou všude články o tom jak se snaží podvádět. Proto je pro mě nepochopitelné to uvádět jako plus, ale už se ničemu nedivím.

Ale nVidia nevydala kartu, které boost běží standardně na 1000 a u kusů pro recenze na 1050. Nikdo věrohodně neprokázal a asi ani neprokáže, že recenzentské karty jsou lepší než ty, co se prodávají. Na to by musel dát dohromady několik referenčních samplů od nVidie a několik stejných karet z obchod. Podle toho, že jednomu běhá na 1050 a jinému na 1000 se dá poznat leda prd, pokud ty karty nejsou ve stejné sestavě a testované za stejných podmínek.
A co se Radeonů týče, ty nejsou kvůli PowerTune taky na stejných taktech stejně výkonné. Minimálně nereferenční HD 6970 se podtaktovávaly míň než karta s referenčním designem, takže člověk, co si koupil referenční kartu měl nižší výkon než člověk, který si koupil nějaký lepší model na stejných taktech.
Rozdíl je v tom, že zatímco nVidia garantuje základní takt a negarantuje takty u GPU boost, AMD za oficiální specifikace vydává de facto maximální takty, kterých je karta schopná, a to, že se karta při vyšší zátěži podtaktovává a běhá pomaleji, zatlouká. Dokonce natolik, že už to podtaktování podle diagnostických utilit u HD 7000 poznat nejde, i když u HD 6900 to ještě ukazovalo reálnou frekvenci.

Myslím že išlo skôr o to, že mnoho recenzentov testuje napr minútový priebeh a z toho napr 30 sekúnd ide na vyššej frekvencii než na akej sa neskôr ustáli. Rozdiel môže vo výsledku spraviť 1-3% napríklad, čo je stále dobrá presnosť, ale skrátka jej to v recenziách pridá. To bez ohľadu na to, či ide o lepšie kusy alebo nie.

Tým ale nechcem kritizovať Boost či PowerTune, sú to dobré technológie, len to skrátka komplikuje život recenzentom, ktorí chcú svoju prácu spraviť poriadne.

"AMD za oficiální specifikace vydává de facto maximální takty, kterých je karta schopná, a to, že se karta při vyšší zátěži podtaktovává a běhá pomaleji, zatlouká."

Mohol by si toto trochu ozrejmit, nerozumiem tomu. To akoze tych 925 MHz co ma referencna HD 7970 je maximalny takt ktory podla AMD karta dosiahne a aj ten nie je garantovany kvoli PT alebo ako si to myslel? Lebo to znie ako totalna blbost, este som nepocul aby sa niekomu karta na zakladnej frekvencii podtaktovavala kvoli PT, mozno pri nejakom brutus OC so zvysenim napatia.

"Dokonce natolik, že už to podtaktování podle diagnostických utilit u HD 7000 poznat nejde, i když u HD 6900 to ještě ukazovalo reálnou frekvenci."

Toto je v totalnom rozpore s tvojim rozborom HD 7970 ked si to testoval, tam si tvrdil ze takty ani po brutus OC neklesali a to ze PT nezasahuje si potvrdil aj tym ze neklesla spotreba ani vykon (to ze nerastol vykon ako mal bolo tym, ze to brzdili pamate, co si nakoniec aj sam v tom rozbore napisal)? Tak ako?

Asi si zmeškal zaujímavý článok o Caymanoch a PT:
http://extrahardware.cnews.cz/powertune-pod-lupourizeni-spotreby-u-cayma...

U HD7000 vplyv poznáš podľa výkonu, ako napríklad tu na konci:
http://extrahardware.cnews.cz/sapphire-hd-7750-ultimate-teploty-vykon-hl...

Ten prvy clanok som cital, to je ale o Caymanoch a tam sa vedelo ze prva generacia PT robi blbiny (aj preto som radu HD 6900 vynechal), teraz je rec o HD 7900, a tam ten PT nerobi nic co by nemal.
Co sa tyka druheho clanku, to som necital a o PT u HD 7700 som nevedel, ten segment nesledujem. Ale zase tam sa to da pochopit, ved ta karta je chladena pasivne a nema ani napajacie konektory, to naozaj nie je karta na OC hratky. Takze si nemyslim ze to je az take zavazne zistenie.

AMD s uvedením nějak informovalo jen o tom, že PowerTune funguje jinak, ale už se nepochlubilo, jak. Dokumentace k PowerTune veškerá žádná, bohužel je to takový blackbox, do kterého člověk nevidí, vidí jen to, jestli se to na výstupu začne chovat jinak, když se v tom na vstupu povrtá.
Tehdy jsem předpokládal, že se zásah PowerTune dá zjistit stejně jako u HD 6970 nebo 6950 tím, že v monitorovacích utilitách budou padat takty. Bohužel už si teď Radeony HD 7000 v diagnostikách "drží" za všech okolností stále stejnou frekvenci, i když PowerTune prokazatelně zasahuje a karta nějak zpomaluje (a netuším jak a o kolik přesně). Ale to bylo zřetelné vidět až u dalších grafik.

To, že kartu přibrzí PowerTune, už se teď dá poznat asi jen podle toho, že se se zvýšením limitu PowerTune v CCC zvedne spotřeba sestavy i výkon grafiky. Hodně to bylo znát třeba u té HD 7750. Nebylo to určitě tím, že by to byla pasivně chlazená karta, spíš naopak, pasiv je hodně předimenzovaný a jádro mělo lepší teploty, než mívají aktivně chlazené karty. A i kdyby, totéž mi to dělalo i u aktivně chlazené referenční grafiky. Domnívám se, že na vině byl hlavně 75 W limit pro napájení přes sběrnici, a to, že mi ta karta s některými zdroji blbla, zatímco podstatně žravější karty s přídavným napájením na stejném zdroji fungovaly, mě v tom jen utvrzuje.
Jestli k tomu u těch prvních referenčních HD 7970 určitě nedocházelo už asi neověřím, ty karty už tu nemám. Zřejmě se (přinejmenším nijak výrazně) nepodtaktovávala, protože měla relativně nízké takty a se zvýšením limitu se nezdálo, že by nějak měřitelně rostl výkon nebo spotřeba sestavy a s přetaktováním výkon taky nějak rostl.

Budem mat snad cas sa pohrat s mojou kartou v dohladnej dobe (HD 7950 OC), tak to vyskusam a pripadne dam vediet.

Mám tu teď nereferenční od Sapphire. Ale jednu věc jsem teď... GPU-Z podle všeho to podtaktovávání přece jen na rozdíl od Afterburneru detekovat umí. :-O Bohužel už jsem jej v poslední době na logování používal jen když Afterburner blbnul nebo nepoznal grafiku.

Mám tu HD 7850 OC, a u ní mi takt po snížení limitu na PowerTune skáče mezi 975 a 450 MHz. Blbé je, že to loguje jednou za sekundu, Afterburner to umí po 0,1 s.
Edit: tak přece jen ani to GPU-Z nefunguje dokonale, aspoň u téhle karty mi nerozlišuje nic jiného než 450 nebo 975 MHz (PowerTune -20%). Při -10 % už se karta tváří na stabilních 975 MHz, ale spotřeba i výkon je pořád nižší než na 0 %.

Mne to vyslo takto. Dve merania vykonu v AvP cez Fraps v krokoch po 5%.

P.S.: su to priemerne a minimalne FPS v dvoch meraniach (I. a II.), zabudol som to do tej tabulky dat.

Hm.. OC verze. Tam už je pravděpodobné, že Sapphire ten limit v biosu nastavil jinak než u referenčních karet, a vypadá to, že pro normální hry celkem rozumně s rezervou nějakých 5 %.
Ta minima jsou ale celkem drsná a v rozporu s tím, co hlásá AMD a následně Jirka Souček, teda že PowerTune je pokročilejší a dovolí podtaktovávat rychle a po malých krocích, takže se to na plynulosti hry nepozná. A tak v tomto konkrétním případě už těch -20–(-15) % zase není moc reálných.

Ja by som to nevidel nijak tragicky, proste minimalne tie nereferencne grafiky by nemali mat ziadne problemy s PT a to ani pri vyraznom pretaktovani a zvyseni napatia. Ale to budem este len testovat.

Edit: len narychlo som otestoval kartu na 1 GHz bez zvysenia napatia, takto to dopadlo:

PowerTune 0% -> I.meranie: 62.7 / 40 (avg / min)
II. meranie: 62.8 / 39

PowerTune +20% -> I. meranie: 62.7 / 39
II. meranie: 62.9 / 40

Este len pre zaujimavost, zvysil som takt pamati z 5.0 GHz na 6.0 GHz -> 65.9 / 42

Adam Vágner> Asi tie kroky nie sú až také malé, ostatne ani u Caymanu podľa toho tvojho článku neboli malé... skôr naopak. V tomto to má NV rozhodne lepšie. Ale oprav ma ak sa mýlim, Power Tune vyzeralo že zasahuje od počiatku rovnako (Cayman), ale Boost u NV je dosť závislý na teplote a tak zasahuje na začiatku viac ako neskôr, čo z neho robí taký "trochu-cheat" pri benchmarkoch. Tým nechcem povedať že bolo navrhnuté za týmto účelom (výsledná ustálená frekvencia je asi vždy vyššia než Base Clock), je to len dôsledok.

Ty mě stále nechápeš nebo nechceš jsou to totiž dvě věci:
1) nvidia udělá "test boost", který je zaměřen na testy magazínu takže nejvíce funguje první minutu až tři a nikdo proti tomu nic nenamítá a ještě to dává za bonus a sám uznáš že mít tři minuty více snímků je při hraní na nic vlastně je to ještě horší protože ti kolísá frekvence.
2) navazuje na první bod - vlastnost kterou mají všechny karty a jen tomu dodává ještě větší punc podvodu, že nvidia ještě na testy pošle povedenější jádra které "test boost" zvládají ještě lépe než všechny ostatní.

Nvidia měla na test poslat karty které splňují garantovaná specifika a ne balamutit karty které dokáží tři minuty držet výkon navíc což je jasný podvod na chudácích co si na základě takového testu kartu pořídí a hrají déle než tři minuty a ještě mají smůlu na horší kus.
PowerTune rozhodně není dokonalý, ale určitě nebyl zamýšlen jako podvod při testech (vlastně při nich může spíše ublížit), ale 3 minuty výkonu navíc je evidentní jako záměr zmanipulovat většinu testů, který krásně vyšel.

Samozřejmě že vím, o čem je řeč.

1) můžu mluvit jen za nás, většinu testů ta karta neprohrčí jednou, měří se víc rozlišení a opakovaně, jeden běh obvykle trvá 1-2 min. a mezi tím opravdu nestihne vychladnout. Ergo zkreslený je tak první průběh prvního měření, další už jsou stabilní a výkon není vyšší. Každopádně je to jedna z věcí, kterou jsem hodlal už s uvedením GTX 680 vyzkoušet, až na to bude čas a nebude do čeho píchnout (obvykle v okurkové sezóně). Pokud to tak bude, budou se muset nějak změnit metodiky (a co je horší, testování bude kvůli tomu trvat dýl). Ale rozdíl 20-50 MHz, o který už se ta karta po pár sekundách hýbe, stejně s výsledným průměrem udělá celkem prd.
Nvidia tímhle způsobem může lépe využít obálku TDP (na rozdíl od PowerTune, které pořád musí mít nějakou rezervu, jinak se karta podtaktovává), a dokáže garantovat minimální výkon na tom základním taktu. Nemyslím si, že je to záměr s cílem ovlivnit recenze, je to jen důsledek. To, že se karta první minutu zahřívá a roste jí při stejné zátěži spotřeba není něco, co by vymyslela nVidia, tak je to odjakživa. Jediné, jak by se tomu, aby karta byla ze začátku rychlejší, dalo zabránit, je, že by ji navíc první minutu regulace nějak nepustila na maximální takty. Ale proč to dělat? Tohle je spíš problém testovacích metodik.
2) Nikdo nijak nedokázal a neprokáže, že nVidia posílala záměrně do testů výběrové karty a lepší karty, než se dají běžně koupit. To by musel stáhnout nerozebírané samply z několika redakcí a porovnat to s několika kusy z obchodů. Stejně tak asi nikdo neprokáže, že se karty se snahou vylepšit výsledky recenzí (teploty, hlučnost, spotřeba) nevybírají u nVidia a AMD odjakživa a je to standardní postup. A zrovna tyhle vlastnosti mě u karet zajímají víc, než to, jestli má výkon lepší nebo horší o 1,5 %.

ostatne u obou "znacek" jsou k mani OC modely ktere u AMD daji vice a nepodtaktovavaji se, a u Nvidie totez s vetsima garantovanejma taktama v zakladu a dalsim boostem

nevidim v tom moc problem ani na jedne strane, kor v situaci kdy se OC modely daji obcas koupit za obdobnej peniz, proste jen dalsi kauza ktera bobtna zabomisi valky mezi proznivci danych znacek :)

imho to nekvalitní chlazení má řešení celkem snadné:

http://www.czc.cz/gigabyte-gtx-670-ultra-durable-oc-2gb/107716/produkt

;)

a věřím, že ten tišťák pod tím accelero chladičem také nebude referenční, pokud je ta fotká správná :D

Vsadil bych vlastní boty na to, že jde o uplně stejný tišťák jaký má nereferenční GTX680 od Gigybytu.
A věřím že touto cestou půjde většina výrobců - než aby vyvýjeli samostatný nereferenční chladič pro GTX670, raději vezmou o kousek dražšší tištěný spoj pro GTX680 a použijí své osvědčené chladiče.

nech si to za tú cenu nechajú

Stejný výkon jako u konkurence za zhruba tisíc korun méně a jako bonus o řádný kus nyžší spotřeba. Tak jaké pak copak. Teď je to na AMD zda cenově zareaguje. Nvidia by musela být blbá, kdyby výkon HD7970 prodávala za cenu HD7950/7870.

Dobré počtení, jen bych se chtěl zeptat, jestli by nebylo možné grafy v sekci "spotřeba, teploty" setřídit např. vzestupně? Teď mi v tom přijde docela maglajs...

Ten maglajz je tam kvůli tomu, že jsou všechny karty ve všech grafech seřazené stejně, aby se neměnilo pořadí. Podle celkového průměrného výkonu.
Časem, jestli se mi to podaří konvertovat na interaktivní grafy, už by to mohlo jít samo dle libosti.

Príde tento mesiac aj GTX 660Ti?

taky mě to zajímá ... toto bude ten sweet pot, nebo jak se tomu říká, grafiku za 10 000,- si koupí málokdo ...

GTX660 někdy v létě.

Podľa Videocardz.com má vyjsť GTX 660Ti v máji a GTX 660 v Q3 2012.

Třetí čtvrtletí bývá v létě,tedy alespoň u nás.Nevěř všemu co se píše na Videocards(GTX670Ti ,GTX660Ti).

tak to je dost pozdě :)

Zatím jediné plus, které by mě donutilo ke koupi 28nm grafiky je uvedená technologie. Vyšší výkon nepočítám, protože ten beru jako samozřejmost. Z téhle referenční zkráceniny jsem hlavně znechucený. Dříve jsem ani neuvažoval o referenčním radeonu a teď už ani o referenční nvidii. Snad do zimy klesne cena všeho na 28nm, protože zatím je to mizérie akceptovatelná jen pro lidi co musí koupit novou kartu. Po GTX 690 další divná karta...

Co je divneho na 670 a 690?

protože jsou to virálni karty asi néé:))

Karty su to nepochybne suprove v porovnani s konkurenciou a podobne ale nejako mi tu chyba poriadny monstrozny High-End bez kompromisov. Mi to pride ze sa nam tu predama mainstream za cenu high Endu.

GTX 690 ti nepřijde jako dostatečně monstroózní :)

Poriadny single chip HE.

imho smutné na těch kartách (gtx 680/670) je, že jsou to herní kousky a mají maximálně ořezané výpočty plovoucí čárky s dvojnásobnou přesností (fpdp), což může do budoucna celkem chybět.
je pravda, že jen díky tomuto ořezání dosáhla nvidia u nových karet tak nízké spotřeby.

naproti tomu karty AMD série HD7900 mají výpočetní výkon fpdp vylazený na maximum, takže dosahují mnohonásobně lepších výsledků.

http://www.tomshardware.com/reviews/geforce-gtx-680-review-benchmark,316...
http://www.brightsideofnews.com/news/2012/3/22/nvidia-gtx-680-reviewed-a...

myslím si, že by stálo za to, to v testech zmínit, aby případní zákazníci o tom věděli a necítili se podvedeni, že si koupili horší kartu než byla jejich GTX580, která výpočty fpdp zvládá také výrazně lépe než nové karty.

jesi ono to nebude i tim, ze GTX680/670 jsou spise nastupcem GTX460/560, aneb GF104/114 a GK104

nekdo kdo ocekava od VGA i vypocty GPGPU tak pravdepodobne testy ktere se na toto zameruji davno zna, a take vi ze benchmarky v tomto zamereni ukazuji diametralne odlisne vysledky od skutecne pouzivanych softu, protoze ty softy nejsou tak "odladene-ucinne" diky komplexnosti funkci, a nezameruji se jen na strohy vypocet jako benchmarky

me treba v photoshopu GTX680 nijak neprekvapila ani nezklamala, od GTX580 me to filtruje +- nastejno, a ze momentalne pracuju s file co maji i 4GB, tedy docela dost casu nato aby se rozdil projevil, a ac si GTX680 nekoupim, tak nato ze karta navazuje na GTX560 ma slusne vysledky

imho gtx 680/670 jsou jistě výborné "eco" karty pro hráče, o tom nepochybuji.

jen si myslím, že není úplně fér porovnávat dvě karty, které jsou jinak zaměřené a nezmínit se o tom v testu.

dva roky zpátky nvidia dělala v každé prezentaci strašný humbuk o tom, že její gtx 480/580 jsou karty zaměřené hlavně na výpočty a tedy jejich výhoda proti konkurenci tehdy byla hlavně ve výpočtech v plovoucí čárce s dvojnásobnou přesností.
dnes, kdy karty konkurence (HD 7900) v těchto výpočtech mají několikanásobnou převahu se o tom jaksi radši ani nepíše...

to je ale spolecne pro obe dve staje, byli by blby zdelovat svetu v prezentacich slabyny vlastnich produktu, pokud vydaji neco vetsiho se zamerenim na GPGPU tak se s tim jiste opet pochlubej, ale u GK104 se s tim pokud vim nikde nechlubili, ja snad ve spojeni s timto GPU nevidel ani nic kde by neco zdelovali ohledne CUDA, proste vsude prezentovano jako ciste herni produkt

a anoo Nvidia delala humbuk, ale delala ho pro karty GTX480 potazmo nastupce GTX580, nikoliv vsak pro GTX680/670

pak ty karty neměli nazvat gtx680, když jsou to o řád horší karty než předchozí gtx480/580.
vydat současnou verzi jako gtx660, tak by to byla bomba... ať si hráči šmáknou, stejně jako s gtx 460/560.
je to smutné, že se snížili k takovému marketingovému "podvodu".
ale což, hold je třeba počkat si na nové quadro karty, ty jistě nebudou postavené na stejném jádře, jen budou znatelně dražší bohužel.
nejspíš někomu v nvidii došlo, že stavěním předražených quadro karet na stejných čipech jako geforce se akorát připravují o peníze.

to si nemyslim, pokud bude nejaky vissi model GPU, tak jiste zamiri i na herni kartu, stejne tak nizsi varianty Quadro karet jiste postavej na Keplerech ktere jsou a budou i na hernich kartach, oblast Quadro a Tesla karet jim sice vydelava, ale proc na danem produktu nevydelavat i dal jinde

to co Quadro a Tesla karty hodne odlisuje a jiste odlisovat bude jsou ovladace, odladene presne na to na co maji odladene bejt

a k tomu "podvodu", nazev GTX660 nepouzili jiste zcela zamerne, aby si tento nazev nezazdili, konkurence jim dala moznost pro GK104 velkou volnost s cenou a GTX660 by pri cene $500 spise lidi odradila nez nadchla, s nazvem GTX680 si proste tu cenu mohli dovolit, je to business o miliardy ne charita, a Nvidia se zodpovida akcionarum, nikoliv zakaznikum

Je to stejně neférové, jak srovnávat výkon SSD s HDD, výkon dvoujádra se čtyřjádrem, výkon mainstreamové grafiky s highendovou, nebo výkon chladiče za osm set s chladičem za patnáct stovek. Každý je určený jinam, a pro jiný segment, a stejně se to porovnává.
nVidia dělala humbuk kolem GPGPU od uvedení GTX 280, gradovalo to s Fermi. V případě Fermi na vyšší výkon pro GPGPU nejspíš doplatili hráči (jednak spotřebou, jednak že vývoj zasponzorovali v herních grafikách). Svůj účel to splnilo, klasické GeForce byly dost rozšířené a relativně výkonné a levné na to, aby to pro vývojáře bylo dost zajímavé. Bylo zajímavé trochu je zpopularizovat a alespoň touto cestou tomu pomoci, protože to konečně může kousek jinam posunout segment PC, ve kterém se co do výpočetního výkonu už léta nedělo v podstatě nic jiného, než že velmi vlažně roste výkon CPU a lepší se poměr výkon/watt. 
Co se technologií týče, nVidia se je snaží propagovat, mluví o nich, píše o nich, investuje do nich. U AMD se to bohužel až moc často v prezentacích krátce odbude jedním či dvěma slajdy a komentářem v duchu my to (už) umíme taky (s nějakou alternativou), a pochlubí se podporou pro řešení, které vzniká díky třetím stranám a fungují na obou platformách (mluvím hlavně o alternativách k CUDA, PhysX a 3D). Prostor, který se tomu věnuje v článcích, je pak více či méně přímo úměrný tomu, jaký tomu věnuje sama společnost ve svých prezentacích. Když dal výrobce vědět, co se změnilo a co u GPGPU vylepšil, tak se o tom většinou napsalo. 
Sám jsem to, jestli je u GPGPU výkonnější AMD nebo nVidia a v čem, nikdy a nikde v recenzích moc neřešil. Jako většině lidí mi u herních grafik šlo primárně o výkon ve hrách. Nemyslím, že je to chyba, lidi, které opravdu zajímá GPGPU, zase nechodí na rozumy do porovnání grafik v herních testech nebo na recenze, kde to někdo protáhne nějakými syntetickými testy GPGPU, které kdosi kdesi uplácal a dá to do recenze, aby si mohl udělat fajfku u kapitoly výkon v GPGPU.

V tomhle oboru se nepohybuju a nikdy pohybovat nebudu, stěží o tom můžu něco fundovaně psál. Můžu to řešit tak, jako většina ostatních, teda že někde vyhrabu nějaké jakože výpočetní benchmarky nebo zkopíruju cizí metodiky a budu se taky tvářit, že tomu rozumím, jako většina ostatních, co o tom rádobysofistikovaně mluví... ale nechtějte to po mě. Pokud se najde někdo, kdo je schopný o tom sofistikovaně a objektivně a napsat článek, milerádi mu dáme prostor i honorář. :)

Jak tak procházím diskuze, z reakcí lidí, co s GPGPU programují, většinou je spíš než hrubý výkon v nějakém benchmarku zajímá technická podpora ze strany výrobce a ekosystém, a s tím je na tom podle nich nVidia podstatně líp. Zatím jde víceméně o dva rozdílné světy – OpenCL vs. proprietární CUDA.
Pokud ořezané GPGPU znamená nižší spotřebu, tak to vítám, i když mě na druhou stranu může mrzet, že herním GeForce už to nepůjde tak rychle. Ale s ohledem na to, že ze všech GPGPU aplikací používám tak akorát enkodér videa od AMD, když chci jednou za dva měsíce překódovat záznam z frapsu pro upload na YouTube, a většina lidí ani to...
Zvláštní je, že většinou stejní lidé, kteří před dvěma lety vykřikovali, že jim někdo cpe GPGPU, které je nezajímá a je k ničemu (a pohoršovali se nad tím, jak někdo někomu sedl na lep), si teď zase stěžují, že je v něm "highendový" čip AMD lepší než "mainstreamový" čip konkurence a v recenzích se dostatečně to nezdůrazňuje a že srovnávání je vlastně nefér. Zvláštní je i to, že stejný problém neměli, když se porovnávala spotřeba HD 5870 a GTX 480, která na to škaredě doplácela. To bylo naopak radosti z toho, jak je to neefektivní obrovský dinosaurus a jak je AMD technologicky dál, že... :) Vím, že ten zápal většinou není z jejich vlastní hlavy, no, ale chodit na rozumy zrovna k takovému zdroji...

V zásade máš pravdu (okrem toho prvého odstavca, podľa mňa sú to všetko veľmi dobre porovnateľné veci).

Ale k poslednému odstavcu: Uvedomuješ si iste, že od uvedenia Fermi už ubehlo dva roky, a za ten čas sa využiteľnosť GPGPU zlepšila. Pre niekoho je to už dostatočné, pre niekoho nie (napríklad pre mňa sú možnosti akcelerovaného enkódovania videa stále "nepoužiteľné" = nie som ochotný obetovať kvalitu za rýchlosť). Je mi samozrejme jasné, že to zlepšovanie bolo urýchlované aj tým, že bola tá možnosť dostupná (hlavne vďaka Nvidii), ale skrátka pri uvedení Fermi bolo GPGPU pre bežného domáceho užívateľa PC ešte stále zbytočnosť za ktorú platil.

asi jsem to nenapsal dobře... nepsal jsem, že je nefér to porovnání jako takové, porovnání je super... psal jsem, že je nefér se nezmínit o DP... zvláště když se předtím přepísknutá spotřeba gtx480 omlouvala "vysokým" výkonem v DP a teď, když HD7970 mají mnohonásobně vyšší výkon v DP než gtx680 se čtenář nedozví proč je takový rozdíl ve spotřebě ;)

treba proto ze Adam proste tyhle testy nedela, predtim to mam pocit testoval Mirek Jahoda a mel proste jinou skladbu testu kde bylo i nejake to GPGPU

sak mame navyber a neni problem si ty testy GPGPU dohledat jinde ne?

--
a ten zajem o testy GPGPU myslim opadnul nejen ze strany recenzentu, ale i ze strany ctenaru, tenkrat to byla velka boom a novika, dnes je to na vetsine servru jen snuska nicnerikajicich benchmarku ktere o skutecnem GPGPU dane karty v realne pouzivanych softech stejne reknou kulove, kdybych mel koukat na vysledky na ruznych servrech, tak GTX680 bude totalni propadak v teto oblasti, protoze v benchmarcich to proste oproti GTX580 projizdi na plne care, v Photoshopu mam ale vysledky takove ze je to plichta, pritom jedine kde jsem narazil na Photoshop a mereni v nem je snad Swethardware a tam projistotu GTX680 v danem testu ani nenamerili (jestli jim to nefungovalo, netusim?)

pokud nekoho zajima test GPGPU tak si ho proste najde a stejne vetsinou bude koukat spise nato jak si povede v realnych softech, kde Nvidia zase v 90% bude sazet na CUDA a tak je stejne konkurence diskvalifikovana, OCL je momentalne zajimava vpodstate jen coby benchmarkova vychytavka a dase rict jen na honeni ega ci karta je v tom benchmarku lepsi :) verim tomu ze pokud se objevej nejaky aplikace co budou stavet na OCL a bude tam moznost merit rozdil mezi kartama ale treba i procesorama, tak se toho jiste chytej i zde na EHW

Všiml si někdo, jak po vyjasnění jak to bude s GF 670 začly růst ceny 7850 Radeonů? Už jsou skoro u 6 tis, zvlášť nereferenční edice....
Pomalu to vypadá na kartel - asi už mají dost cenové války a tak si dali pauzu na oškubávání kupujících.

to se ti jen zda, staci se podivat na shopy kde maji hystorii cen, zadne drama se nekona, a pokud tam nejaky posun je, klidne zato muze moct i dolar a koruna, aneb jedno posiluje a druhe krute oslabuje

hystorii? nebo jsi myslel snad hysterii? :D

Stránky

Reklama
Reklama