Reklama

GeForce GTX Titan v testu: ve znamení výkonu a luxusu

Otestovali jsme čerstvě uvedenou GeForce GTX Titan, nejvýkonnější jednoprocesorovou grafickou kartu od nVidie s velkým jádrem GK110. Hranice, na které jsme zvyklí, posouvá o pořádný kus dál.

GeForce GTX Titan už i v České republice

Asi vám neuteklo, že se na Českou republiku se vzorky karet GeForce GTX Titan přímo od Nvidie tentokrát nedostalo. Jednou z prvních možností, jak se k nové kartě dopracovat, jsou tedy velcí distributoři. Kvůli tomu jsme v redakci přivítali ukázkovou herní sestavu HAL3000 společnosti 100Mega Distribution. Ze 100Megy nám ji přivezli osobně v pátek odpoledne, takže jsem díky tomu mohl testovat už přes víkend. Letmý pohled do jejích útrob mě docela potěšil, je znát, že léta kritizování hotových sestav ze stran recenzentů měla nějaký smysl. Podrobněji se jim ale budeme věnovat později v samostatném článku. Dnes se podíváme na to, co je uvnitř počítače nejzajímavější – je osazený jednou z prvních GeForce GTX Titan, které se do ČR dostaly.

Zotac GeForce GTX Titan
Zotac GeForce GTX Titan Zotac GeForce GTX Titan Zotac GeForce GTX Titan

Většina informací o GeForce GTX Titan už zazněla v článku, který jsme jí věnovali při jejím oficiálním představení. V krátkosti jen zrekapituluji to nejpodstatnější.

Se zprávami o přípravě GeForce GTX Titan se objevily spekulace, které tu míváme pravidelně s každým novým highendem Nvidie. Vznikají nejspíš kvůli dnes už historickým zkušenostem s kartami, jako byla GeForce FX 5800 Ultra.

První z nich, že do prodeje půjde jen omezené množství deseti tisíc kusů, Nvidia při prezentaci popřela s tím, že karet bude rozhodně víc (tady nám nezbude než jí věřit).

Povídá se i něco o tom, že karet do recenzí bylo málo, protože jde o kusy vybírané speciálně pro recenze, aby v nich vypadaly lépe než v praxi. To, že nejde o reprezentativní vzorek, ale kus z užšího výběru, ale hrozí u každého hardwaru, který si člověk nevyzvedne přímo v obchodě coby koncový uživatel. Bez otestování velkého počtu karet se to opět nedá potvrdit ani vyvrátit, minimálně naše karta už je ale produkční kus z běžné distribuční sítě a že by byla speciálně vybíraná je u ní jen málo pravděpodobné.

Reklama

 

Další ze zpráv mluvila o tom, že v první vlně budou jen karty od EVGA a Asusu a ostatní výrobci s nimi přijdou až později. Ta padá s tím, jak se na skladech obchodů objevují modely jednotlivých výrobců. Do sbírky dodavatelů „z první vlny“, jejichž karty už fyzicky cestují po obchodech, už i u nás přibyl minimálně Zotac a Gigabyte.

Populární tezí u highendových GeForce bývá i to, že musí být karta kvůli velkému čipu ze strany Nvidie sponzorovaná a výrobce na ní prodělává. Tentokrát by zřejmě kvůli ceně karty zněla asi hloupě, ještě doufám, že stávající cenu GTX Titan nebude někdo brát jako důkaz toho, že musel být highend Nvidie až doteď výrazně dotovaný a toto je první karta s monstrózním čipem, na které netratí.

GeForce GTX Titan

Karta je dost netradiční už jen svým označením. Jedna highendová GeForce s obvyklou osmdesátkou na konci – GTX 680 – už se dlouho prodává a také vyšší modelové značení GTX 690 už je obsazené GeForce s dvojicí menších čipů GK104. Snad kvůli tomu dostala nová Nvidia označení GTX Titan a v pravdě titánská je hned v několika ohledech.

Zotac GeForce GTX Titan

Karta nese značku společnosti Zotac v referenčním provedení. Protože byla osazená v sestavě, nemáme balení ani kompletní příslušenství.

 Zotac GeForce GTX Titan

GeForce GTX Titan je osazená nejvýkonnějším GPU Nvidie s kódovým označením GK110. Svou premiéru si největší jádro s architekturou Kepler odbylo u profi karet Tesla K20X.

Zotac GeForce GTX Titan Zotac GeForce GTX Titan Zotac GeForce GTX Titan Zotac GeForce GTX Titan

Karta nese jádro GK110 vyráběné 28nm procesem. Má 7,1 miliardy tranzistorů a výkon 4,5 TFLOPS. Oproti GTX 680 má o 75 % více stream procesorů, celkem 2688 pro výpočty v single precision a 896 pro výpočty v double precision.

Dále je k dispozici 224 texturovacích jednotek a 48 rasterizačních jednotek. Výrazně nižší oproti GTX 680 je ale takt jádra – základní frekvence je 836 MHz a s GPU Boost se má pohybovat jen na 876 MHz.

Zatímco GeForce GTX 680 byla kritizovaná za to, že má standardně jen dnes už mainstreamové 2 GB paměti, u Titanu se nešetřilo. Karta má 6 GB GDDR5 na taktu 6008 MHz efektivně, které s jádrem komunikují po 384b sběrnici. Oproti GTX 680 tak paměti dosahují o 50 % vyšší propustnosti (288,4 GB/s).

 

 

Zakoupíte na CZC.cz
Zotac GTX TITAN 6GB23 996 Kč
Oblíbené Tisk E-mail
Reklama

Komentáře

Asi jsem při testu HD7850 XT nedával pozor, ale ona je fakt na úrovni HD7970 ( alespoň teda v Battlefieldu 3, ostatní hry mě nezajímají co tu jsou ) a 75% Titanu ? Dívám se, že v Czc je za 5 763 Kc. WTF ? Toto je ona ? http://www.czc.cz/sapphire-hd-7870-2gb-gddr5-xt-with-boost/123140/produkt 
Proboha proč jsem ještě neprodal svou 3 roky starou grafiku za 4tinu ceny nové HD7870 XT a nedoplatil pár babek za takový výkon ???

Jestli jde o Battlefield, tak to jde čistě na konto rozdílných ovladačů (u 12.11 paušálně u všech Radeonů velký skok), ale jinak se co do výkonu může dost často měřit s HD 7950 (ta je v tomto ohledu testovaná na ovladačích srovnatelných)

Otázka je, jak je to s BIOSem u prodávaných karet, ten, který jsem nakonec dostal já jako nový, kartu pořádně protáhl za cenu hodně vysoké spotřeby. Ale to je všechno v recenzi.

kryt chladice je tak lacina zalezitost, ze by asi bylo hloupe na takovou kartu davat nejaky o par centu levnejch kryt chladice a dat argument odporcum s tim jak to ma spatny chladic (pripad AMD a jejich chladice na HD6990), objem prodeju teto karty nebude tak malej ani tak velkej, aby Nvidia nemohla "vyrobcum" nadiktovat chladic ktery celou varku prodrazi o par tisic dolaru, jen pro predstavu, nechat si udelat serii 1000 takovich krytu, prijde i v CR na asi 20-25 korun za kus, nechci ani vedet za kolik by to vyrobili treba v Cine, proste smesne castky :))
 GPU Boost 2.0 nebo „přetaktování“ monitorů jsou technologie ktere vyuziji i u jinych karet, u Titana to je jen marketing, protoze tu kartu sleduje/sledovala "cela verejnost" sledujici deni na poli hernich i nehernich GPU, jiny novi produkt na kterem by to mohli ted prezentovat nemaji, tak proste vyuzili Titana

U HD 6990 byla hlavně asi dost velká blbost strčit radiální větrák doprostřed a nechat jej foukat do dvou směrů, to jsem zatím u tohoto typu ventilátoru nikde jinde neviděl.

Zkuste doplnit normální ghz 7970 jak si aktuálně stojí, když se podařilo sehnat titana tak přece tohle musí bejt hračka. Překvapil mě tu malý výkonnostní nárůst a to ještě v kontrastu toho když si vzpomenu jak se začala porovnávat jádra tahity/gk104 a jejich "obrovský" rozdíl v ploše a nepoměr ve výkonnostním odstupu.
Jo a gratulace k prvenství (tedy jestli jsem něco nepřehlédl).

Kupodivu to hračka není, už jsem se na pár modelů právě kvůli přetestování na nových ovladačich u výrobců taky ptal, podobný problém jako s gigovýma HD 7850. Zkusím výhledově půjčit z e-shopu, ale teď je zase docela husto a nevím, co dělat dřív.

škoda že jste nevyzkoušel vliv nastavení výkonu v DP na OC a spotřebu....

Zajímavé by bylo ještě srovnání s 2x GTX 660 SLI. Myslím že by tato kombinace byla do jisté míry výkonější než TITAN, problémem v SLI by možná byla absence frame rate meteringu a tím i vznikající microstuttering

Ve znamení výkonu? Proč u této karty netestujete výkon pod GPGPU na který je tato karta určena, zvláště proto, že je to odvozenina Tesla čipu. Výkon této karty pod OpenCL je doslova žalostný viz. http://clbenchmark.com/compare.jsp?config_0=14470292&config_1=11905561 AMD Radeon HD 7970 za 9000 Kč dává na frak výkonově s nejvyššímu modelu Nvidie za 25 000 Kč navíc AMD je testováno s rok starými ovladači? To je výsměch a ne znamení výkonu. 

proboha, Catalyst 12.7 b nejsou rok staré ovladače. A když půjdu do důsledku a budu brát ovladače s certifikací WHQL (a pominu problematické bety 12.11, na kterých řada věcí nefungovala (některé hry, ZeroCore apod.)), tak se výkon Catalyst ve hrách zvedl až s Catalyst 13.1 (se základem v těch 12.11 beta) vydaných 15. ledna, že?

Na GPGPU je určená Tesla, pokud vím. Na to, jestli a proč Titan lidi chtějí, na co ji využívají pro GPGPU a co jim přináší, se ptejte jich, ale co sleduju reakce, o HD 7970 nebyl zdaleka takový zájem i přesto, že má ve většině měření z CL Benchmarku o tolik lepší skóre. :)

ono to bude tim, ze lidi co chteji ten GPGPU vykon, tak casto nesleduji nicnerikajici bechmarky s casto totalne nesmyslnyma vysledkama, ale skutecne aplikace ktere pouzivaji pri sve praci :)

Myslíte třeba široce používaný fyzikální render Luxmark?  http://www.svethardware.cz/art_doc-6C19837A11AA5676C12579F80069204E.html   Odhadem výkon Titanu nebude o mnoho větší než výkon GTX 580, tj. stále cca o 100% pomalejší než AMD HD 7970. 

muzes mi prosim prozradit jak siroce je LuxRender pouzivany, treba nejaka studia co jej vyuzivaji, nebo i nejaci znamejsi grafici? ja ze se v teto branzi pohybuju a neznam jedineho grafika ktery by ho pouzival, a to ani z tech zahranicnich, ani z klientu nevim o jedinem co by pouzival LuxRender, vzhledem k jeho prvotni prislusnosti k Blenderu a teprve nasledne snaze proniknout i na dalsi modelery se neni cemu divit, az bude mit alespon naznak procent trhu, tak asi zacne bejt zajimavej, ale zatim proste kraluji jine renderery
mimochodem vysledky Titanu v LuxRendru zname jsou a jsou pod HD7970, Titan je cca na 70-80%

tvrdit "široce používaný" je v tomto smeru asi stejne smesne, jako bych ja tvrdil ze moje kolekce 50 aut pro archvizualizase je siroce rozsirena protoze se prodala asi 100x do ruznych archviz studii po celem svete :)) pritom vim ze ty prodeje jsou naprosto smesne a evermotion ktery tomu trhu kraluje ma prodeje v tisicich, nehlede na dalsi desetitisice stazeni jejich modelu z torentu a podobne, takze propriste s necim jako "široce používaný" radsi setri :)

Člověče, vy jste úplně mimo. Viz. můj příspěvek dole ..

Musíte to chápat tak, že se jedná o herní testy. Máte-li zájem o jiný test, je třeba hledat jinde.

Má poznámka se týkala ovladačů použitých k testování HD 7970 na stránkách OpenCL Benchmarku. AMD se začíná velmi prosazovat i na poli GPGPU, spolu s partnery prosazuje heterogenní computing, což je v době APU (jak u AMD, tak Intelu) jasná budoucnost. Jádra OpenCL lze přímo volat z C, C++, Java, Python, Javascript, Perl atd. rozšiřuje se počet knihoven. Co je neocenitelné, že vše běží multiplatformě napříč operačními systémy i použitým hardware (AMD, Intel, Nvidia).

Aha, ok.

Těžko uspokojit Nostradama....:)

Musel jsem se přihlásit po několika měsících (a předem se omlouvám redakci za možná silná slova), protože tak hloupé ****** jsem tu už dlouho neviděl. Ona se snad CUDA nedá používat z C/C++ a tím pádem ze všeho ostatního, co má jakékoliv bindings na C/C++ knihovny (Java, Python, Perl, ..)? O la lá. Dejte mu Nobelovku (Bohnickou). Nejdřív si člověče v tomhle oboru dodělejte vzdělání a pak se snažte mudrovat.
A co se týče GPGPU, tak pro vaši informaci, Radeon HD7970GHz byl Titanem totálně znemožněn. V double precision podává Titan dvakrát lepší výkon, než HD7970GHz. AnandTech si na to pozval PhD. studenta parallel computingu. Implementovali stejný algoritmus na HD7970GHz i na GTX Titan, za použití těch nejlepších prostředků/nástrojů, které dané platformy nabízí (zde je citovaná vědecká práce ftp://ftp.u-aizu.ac.jp/u-aizu/doc/Tech-Report/2012/2012-002.pdf). Jinými slovy, u každé karty implementovali ten nejefektivnější způsob, jak se k danému výsledku dostat. To naprosto jasně ukazuje reálný poměr výkonů obou karet. Porovnávat výkon jen v OpenCL je naprostá hloupost. Když si někdo pořídí pro výpočty K20X a implementuje svůj algoritmus v CUDA, dosáhne 2x většího DP výkonu, než kdyby si koupil AMD čip a implementoval ten algoritmus v OpenCL. Proč by navíc Nvidia investovala do optimalizace OpenCL driverů, když je to jen okrajová platforma, většina profesionálů a profesionálních nasazení používá CUDA? Není jediný důvod. Tím by spíš pomohli AMD.
Výsledky jsou zde, plačte:
www.anandtech.com/show/6774/nvidias-geforce-gtx-titan-part-2-titans-perf...

Maudit> Presne tak, existuje totiž jeden jediný GPGPU algoritmus a preto bez výhrad platí ako píšeš: "To naprosto jasně ukazuje reálný poměr výkonů obou karet." Testovať čokoľvek iné je riadna hlúposť. :D Navyše, všetci používame výhradne DP, hlavne v Dirt:Showdown, však? ;)

Nez zacnes vypoustet tyhle nesmysly, doporucuji ti precist zdroje, at ze sebe nedelas hlupaka :) A v SP vyhral Titan taky extremne, i kdyz ne o dvojnasobek. Hezky den :D

S 35% náskokom je "extrémne"? :D Navyše pri dvojnásobnej cene?
Zdroje teraz bohužiaľ nemám možnosť čítať, ale v tom článku na anandtechu píšu: "Apart from the results collected by us for GTX Titan, GTX 680 and GTX 580, we refer to experiments conducted by Matsumoto, Nakasato and Sedukin reported in a technical report filed at the University of Aizu about GEMM on Radeon 7970.  Their exact parameters and testbed are different than ours, and we include their results for illustrative purposes, as a ballpark estimate only."
Každopádne ma pobavil spôsob, akým si to napísal, že práve to je ten pravý a jediný test, ktorý hovorí o skutočnom výkone. :)

Tak se podivej na tu konfiguraci v te vedecke zprave a na tu v AnandTechu. LOL

Sám si LOL, v tom reporte totiž nie je ani slovo o testovacej konfigurácii. ;) Čo sa z toho ale vyčítať dá je to, že nie je použitý najvyšší referenčný model Radeonu, ale obyčajný nonGHz Edition, takže už v tom svojom prvom poste si mimo. Taktiež driver je pomerne starý 12.3.
Nerozumiem však, prečo AT použil výsledky najpomalšieho kernelu v teste pre Radeon (2382GFlops a 689GFlops), keď už v abstrakte je napísané, že najrýchlejší kernel dosiahol (2646GFlops a 848GFlops).
Vo svetle týchto vecí to na nejaké "znemožnenie" rozhodne nevyzerá. :D 22% v náskok v SP a 54% v DP oproti nonGHz HD7970. GHz Ed. by mala, predpokladám, ešte o cca 10% navrch. A to Titan má dvojnásobnú cenu a o 50% väčšie GPU.

Mohol by si sa už ale konečne vymačknúť, prečo práve toto je ten jediný najvýpovednejší GPGPU test, ako keby nič iné tie karty ani nedokázali. ;)

SP: 3221 / 2382 * 100 = 135%, tzn. Titan je o 35% vykonnejsi
DP: 1306 / 689 * 100 = 189% vykonu HD7970, tzn. Titan je o 89% vykonnejsi, nez 7970

Vrat se na blogysek, tam te mozna bude brat nekdo vazne.

Heh, prečítaj si svoje a moje príspevky pekne postupne, hovoríš totiž "trošku" z cesty. Nakoniec je evidentné, že si to ty, kto ten report ani len nevidel. ;)

At ctu jak chci, tak nachazim jen dalsi LOL vyroky. Nejen ze neumis pocitat procenta, ale treba nam cpes, ze by se mely pouzivat pro srovnani peak hodnoty :D Nejspis si chytrejsi nez ten japonsky vedec :D :D Ony se pro srovnani grafik snad pouzivaji peak FPS? Ne, pouzivaji se prumerne hodnoty. Dobre se bavim :D :D :D

Vidno že si ten report ani nevidel, hlavne že budeš mudrovať. :D To čo som uviedol totiž nebol peak ako ho chápeš ty. ;)
"On the Tahiti GPU (Radeon HD 7970), our DGEMM (double-precision GEMM) and SGEMM (single-precision GEMM) kernels achieve the performance up to 848 GFlop/s (90% of the peak) and 2646 GFlop/s (70%), respectively."
Metóda, ktoru AT otestoval tie NV karty zas vôbec nie je popísaná (alebo som to nenašiel), takže sa to nedá dosť dobre porovnať, tak ako tak. Hlavne že ty máš jasno v tom, že je to ten najvýpovednejší GPGPU test pod slnkom. :D Keď sa ti páči výsledok, tak sa predsa nebudeš zamýšľať nad vhodnosťou metódy, však? :D

Naopak, ja jsem ho cetl. Ale na rozdil od tebe mluvim anglicky.
"2646 GFlop/s (70%), respectively." Teoreticky SP vykon HD7970 je 3788 GFLOPS. 2646 / 3788 * 100 = 69.85%
"performance up to 848 GFlop/s (90% of the peak) " Teoreticky DP vykon HD7970 je 947 GFLOPS. 848 / 947 = 89.54%
To co je v tom clanku zmineno jako peak, jsou teoreticka maxima HD7970. A "performance up to" je peak, ktery v testu dosahli. Stejne jako na grafice nekdy vyskoci FPS hodne nahoru, kdyz se treba divas do kouta a podobne. To ale nema nic spolecneho s prumernymi vysledky, ktere ten vedec nakonec pouzil. Opravdu ti stoji za to se tu takhle ztrapnovat? :D

 Je mi jasné, len ty tomu rozumieš, dokonca lepšie ako ten Japonec čo to robil. ;) Anglicky možno rozumieš, ale ani to ti zjavne nepomohlo pochopiť daný report. Nie sú to peak performance ako to chápeš ty. Oni to nazývajú maximum (vzhľadom na veľkosť matíc) a je to zrejme už so zohľadnením stability výkonu. Navyše, predpokladám, že rovnaké maximá sú uvedené aj pre NV karty na AT.
Čísla uvedené pre HD7970 sú proste maximimum jedného z tých štyroch kernelov. Toho najpomalšieho. Bez optimalizácie. Vďaka optimalizácii dosiahli výsledky vyššie aj pre ten typ výpočtu (čo je graficky znázornené dalej v tom reporte). Takže neplatí čo si napísal v prvom príspevku, že: "u každé karty implementovali ten nejefektivnější způsob, jak se k danému výsledku dostat".
Čo presne sú tie výsledky pre NV karty na AT je nejasné (nedostatočný popis), takže do akej miery je to porovnateľné je otázne. Aj na AT sami napísali, že je to len orientačné. ;)

Co prosim? Jaky neoptimalizovany kernel? Vdyt ty ani nevis, o cem mluvis. To fakt myslis vazne tohle??? Tam jsou ctyri typy operaci s maticemi (GEMM). Proto jsou tam ctyri vysledky. Oni pro kazdy typ operace hledaji optimalni kod a to tak, ze napsali generator kodu, ktery se pomoci heuristiky optimalizuje. Pro kazdy typ GEMM pak vyzkouseli alespon 10000 variant.
"We tested at least ten thousand kernel variants per GEMM type." (cast III, odstavec 2)
"It takes around three hours to find the best set of parameters for each GEMM type" (cast III, odstavec 3)
To co ty si ocividne myslis, ze jsou ruzne pokusy (a ten posledni nazivas "neoptimalizovany"), jsou ve skutecnosti rozdilne testy. A kazdy obsahuje nejlepsi dosazeny vysledek pro dany typ GEMM. Je tedy naprosto jedno, jaky si na AnandTechu vybrali pro srovrani, protoze ho museli naimplementovat stejne. Ja opravdu nechapu, proc tu ze sebe hodlas delat neustale hlupaka. To te opravdu tak boli priznat, ze AMD v necem tezce zaostava? Nebo v cem to je, ze se do toho tak vrtas, aniz bys umel poradne anglicky a rozumnel alespon trochu problematice?

Maudit> Tými "hlupákmi" sa nevyhneš tomu, aby som reagoval na tie tvoje bludy a nezmysly. ;)

No, bobáčik môj, tak konečne si sa aspoň pozrel na ten report. ;) Bohužiaľ len veľmi povrchne, lebo inak si neviem vysvetliť, ako si to mohol pri svojej majstrovsky zvládnutej angličtine nepochopiť. (V skutočnosti si to viem vysvetliť, ale to sa sem nehodí...)
K tomuto: "To co ty si ocividne myslis, ze jsou ruzne pokusy (a ten posledni nazivas "neoptimalizovany")"
Nie, nič také si nemyslím, myslím si presne to, čo je v tom reporte napísané. Tá tabuľka, z ktorej je výsledok najpomalšieho kernelu použitý na Anandtechu, je totiž len prvá časť práce, nájsť najrýchlejšie kernely pre rôzne vstupné parametre. Preto "neoptimalizovaný". Samotné optimalizovanie je až v ďalšej časti. Nie je zobrazené v tabuľkách, ale len graficky (Figure 6. a Figure 7.). Konkrétne máš aj v texte zmienený optimalizovaný výsledok toho predtým najpomalšieho výpočtu (AB+C): "The maximum performance of our DGEMM and SGEMM AB + C implementations is 823 GFlop/s (87% of the peak) and 2541 GFlop/s (67%), respectively." Tiež je dobré podotknúť, že v tom reporte píšu, že to nie je úplne vyladené a pri podrobnejšom venovaní sa jednotlivým častiam by dosiahli vyššieho výkonu.

BTW: Nemám problém priznať, že GK110 je výpočetne výkonnejší čip ako Tahiti. (Problém mám len s tými tvojimi bludmi, čo tu píšeš.) S nejakým problémom si tu očividne len ty.

Tak si to rozebereme poporade. Ty ted pises:
K tomuto: "To co ty si ocividne myslis, ze jsou ruzne pokusy (a ten posledni nazivas "neoptimalizovany")" Nie, nič také si nemyslím, myslím si presne to, čo je v tom reporte napísané.
Ale nahore jsi psal (a kazdy si to muze najit):
Nerozumiem však, prečo AT použil výsledky najpomalšieho kernelu v teste pre Radeon (2382GFlops a 689GFlops), keď už v abstrakte je napísané, že najrýchlejší kernel dosiahol (2646GFlops a 848GFlops).
Vzhledem k tomu, ze tabulka uvadi DGEMM hodnoty 689, 790, 812 a 848 a SGEMM hodnoty 2382, 2488, 2577 a 2646, jsi si naprosto jasne myslel, ze to jsou ctyri pokusy :D To, ze si ted diky me pomoci mozna matne uvedomujes, jake kraviny jsi psal, uz minulost nezmeni.
A pokracujeme dal. Ty pises:
Samotné optimalizovanie je až v ďalšej časti. Nie je zobrazené v tabuľkách, ale len graficky (Figure 6. a Figure 7.). Konkrétne máš aj v texte zmienený optimalizovaný výsledok toho predtým najpomalšieho výpočtu (AB+C): "The maximum performance of our DGEMM and SGEMM AB + C implementations is 823 GFlop/s (87% of the peak) and 2541 GFlop/s (67%), respectively."
Opet si nepochopil text a jeste navic lzes. Ani v jednom z grafu (figure 4, 6 a 7) graf AB + C nikdy neprekroci hodnotu 2500 GFLOPS. Uz jsem ti to s temi maximy jednou vysvetloval.
Dal pises:
Tiež je dobré podotknúť, že v tom reporte píšu, že to nie je úplne vyladené a pri podrobnejšom venovaní sa jednotlivým častiam by dosiahli vyššieho výkonu.
Jo, a na AnandTechu za ten tyden, ktery na tu recenzi meli, a museli s kartou zmerit mimo jine i herni testy, spotrebu, teploty, atd. meli urcite strasne casu na to, aby to vymakali vic, nez na japonske univerzite. Urcite. Keep dreaming :D Tak, co zkusis ted?

Zareagujem aj na tieto bludy, keď už som sa na to dal...
Ad "...jsi si naprosto jasne myslel, ze to jsou ctyri pokusy...":
Áno, napísal som to, čo cituješ, ale nemyslel som to tak ako tvrdíš, bobáčik môj. ;) Nečítaj medzi riadkami niečo, čo tam nie je. Na AT skrátka nedokumentujú aký kernel použili pre tie NV karty, a ak použili AB+C, tak prečo práve ten. Toť vše.
Ad "...a jeste navic lzes. Ani v jednom z grafu (figure 4, 6 a 7) graf AB + C nikdy neprekroci hodnotu 2500 GFLOPS...":
Kde presne píšem, že AB+C prekročilo 2500GFlops? Citáciu poprosím. Klameš akurát tak ty. Tamto bol citát z toho reportu, teda nie moje slová. Nepredpokladáš že v tých grafoch sú všetky hodnoty čo namerali, však? ;) Inak, sranda že teraz vyťahuješ SGEMM, keď doteraz si sa oháňal DP výpočtami. :) To, že tam aj pre AB+C viditeľne prekročili 800GFlops radšej nekomentuješ.
Ad "Uz jsem ti to s temi maximy jednou vysvetloval."
jj, ešte mi ale musíš vysvetliť, aké maximá/nemaximá použili na AT u tých NV kariet, aby sa to vôbec dalo porovnať, tak ako to robíš ty. ;)
Ad "...meli urcite strasne casu na to, aby to vymakali vic, nez na japonske univerzite...".
Nebol som to ja, kto sa oháňal super duper maximálnou optimalizáciou čo dané platformy ponúkajú. ;) Bol si to ty.
Tak, a teraz si zhrňme čo vlastne ostalo z tvojho prvého príspevku:
1. Píšeš, že "Jinými slovy, u každé karty implementovali ten nejefektivnější způsob, jak se k danému výsledku dostat." Vzhľdom na použitý výsledok to rozhodne nie je pravda. Fakt.
2. Píšeš, že bolo testované proti HD7970GHz ED. To je lož, v teste je pomalšia HD7970 vanilla.
3. Píšeš, o hodnotách v tom teste "To naprosto jasně ukazuje reálný poměr výkonů obou karet." Prečo je to tak? No predsa lebo to povdal sám veľký Maudit "!vládca anglického jazyka!" (Napísal by som to kapitálkami, mám pocit, že takto to proste nie je hodné tvojej obludnej inteligencii. Pri čítaní prosím imitovať echo effect.). To sa spochybniť predsa nedá. ;)
4. Píšeš, že "Když si někdo pořídí pro výpočty K20X a implementuje svůj algoritmus v CUDA, dosáhne 2x většího DP výkonu, než kdyby si koupil AMD čip a implementoval ten algoritmus v OpenCL." Muhehe! Dedukcia na základe porovnania jediného algoritmu (podľa vyššie uvedeného dosť pochybného porovnania), že to tak bude pre každý jeden individuálny algoritmus. Povedal Maudit "!vládca anglického jazyka!".
Tak tu sme asi skončili...

Tak tobe ten trapas jeste nestacil? No dobre.
Áno, napísal som to, čo cituješ, ale nemyslel som to tak ako tvrdíš, bobáčik môj.
Jo tys to tak napsal, ale nemyslel :D A to ti mame verit? :D :D :D Kazdemu aspon trochu normalnimu ctenari muselo dojit, jak jsi byl mimo.
Kde presne píšem, že AB+C prekročilo 2500GFlops? Citáciu poprosím.
Treba tady:Preto "neoptimalizovaný". Samotné optimalizovanie je až v ďalšej časti. Nie je zobrazené v tabuľkách, ale len graficky (Figure 6. a Figure 7.). Konkrétne máš aj v texte zmienený optimalizovaný výsledok toho predtým najpomalšieho výpočtu (AB+C): "The maximum performance of our DGEMM and SGEMM AB + C implementations is 823 GFlop/s (87% of the peak) and 2541 GFlop/s (67%), respectively."
Tvrdis, ze v tabulkach jsou neoptimalizovane vysledky, coz je lez, a pak tvrdis, ze ty optimalizovane vysledky jsou v grafeck 6 a 7. Ale tam nic takoveho neni. Grafy odpovidaji tabulkam :D
Na pripomenuti tveho nepochopeni maxim jsi odepsal:jj, ešte mi ale musíš vysvetliť, aké maximá/nemaximá použili na AT u tých NV kariet, aby sa to vôbec dalo porovnať, tak ako to robíš ty.
Budeme predpokladat, ze vedecky pracovnik japonske univerzity a PhD. student parallel computingu dobre vedi, co delaji (narozdil od tebe), a vysledky zmerili spravne :D
Dal pises k optimalizacim:Nebol som to ja, kto sa oháňal super duper maximálnou optimalizáciou čo dané platformy ponúkajú. ;) Bol si to ty.
Uvedomujes si ale, ze jestli nemeli dost casu optimalizovat CUDA kod pro Titan tak, jak ho optimalizovali pro HD7970, je vedeni Titana tim padem nejspis jeste vic, nez 89%? :D
A nakonec velmi usmevne:Dedukcia na základe porovnania jediného algoritmu (podľa vyššie uvedeného dosť pochybného porovnania)
Komu mam asi verit tyjo. To je dilema!!! Slovakovi, co ma problem porozumnet anglickemu textu a o parallel computingu a obecne IT nevi nic, nebo dvema specialistum na parallel computing, kteri by urcite pred akademickou obci nevypustili zadne nesmysly? Volba je jasna. A ten slovak to rozhodne nebude :D :D :D

Nemusíš si vykať, nik okrem nás dvoch toto už dávno nesleduje. ;)
Napísal som to, čo si citoval, ale ty si to vykladáš dosť divne. Moja otázka bola, prečo práve ten jeden kernel (AB+C). Toť vše. ;)
Tamto o vyše 2500GFlops v SP je citát z toho reportu. Takže ak ty tvrdíš, že to nie je pravda, asi o tom vieš viac ako ten japonec, čo to písal. Čo dodať... snáď len... povedal Maudit "!vládca anglického jazyka!". ;)
Grafy fig 6 a 7 neodpovedajú tej prvej tabuľke (neoptimalizované, to už som ti vysvetloval, teda, aspoň som sa pokúsil), z ktorej je jeden výsledok použitý na AT na porovnanie. Tomu textu nerozumieš len a len ty ak to tvrdíš.
Ty si môžeš predpokladať čo len chceš, ja som skrátka skeptik. ;) Popis na AT nie je dostatočný, aby sa to dalo ohodnotiť.
Ja neviem koľko času na čo mali, to vedia oni. Narážal som na tie do neba volajúce nezmysly, čo si tvrdil vo svojom prvom príspevku. To som zhrnul vo svojom predošlom príspevku, vracať sa k tomu už nebudem. Kľudne môže mať Titan aj väčší náskok, ja netvrdím aký je v skutočnosti, len to, že ten test nič také nedokazuje. ;)
To posledné si trošku vytrhol z kontextu, alebo si to vôbec nepochopil. Ak porovnali jediný algoritmus (AB+C), neoptimalizovaný aspoň pre jednu architektúru, jedinej veľkosti matíc, tak to vo všeobecnosti (rôzne parametre, rôzne algoritmy, ...) nevypovedá vôbec, ale vôbec nič. Ani na AT netvrdia že by vypovedalo. ;) Tiež tam píšu, že je to len pre veľmi hrubé porovnanie. Asi vedia prečo. Len pre Maudita "!vládcu anglického jazyka!" je to jasný a presný výsledok, ktorý vypovedá o komplexných GPGPU možnostiach daných platforiem. :D Vskutku pôsobivé. Vidno, že si veľký odborík aj na parallel computing a IT všeobecne, nie len na anglický jazyk. ;)

Ostatni tve bludy uz jsi vzdal a velice neochotne uznal. Ted uz se drzis jen jednoho, a to ze ta tabulka obsahuje neoptimalizovane hodnoty:
Grafy fig 6 a 7 neodpovedajú tej prvej tabuľke (neoptimalizované, to už som ti vysvetloval, teda, aspoň som sa pokúsil)
Jenze bohuzel, ti co umeji normalne cist anglicky text, si snadno prectou pod tou tabulkou, ze jde o nejrychlejsi jadra, ktera jejich optimalizacni code generator vyprodukoval. Pro ty pomalejsi - jsou to optimalizovane hodnoty. Ten popis je zde:
Figure 4. Performance of the fastest GEMM kernels produced by our code generator on the Radeon HD 7970. Matrix sizes are in multiples of 256.
Muzes se tu vykrucovat jak chces, ale nikdo te uz nebere vazne. Ja uz z tebe mam jen a pouze legraci :)

Aké moje bludy? Uznal som len to, že som napísal čo si citoval. Rozhodne to ale neznamenalo to, čo ty tvrdíš. Čítaš medzi riadkami niečo, čo tam nie je. Alebo len tragicky nerozumieš slovensky. ;) Ani keď to napíšeš 1000x, pravdou sa to nestane, bobáčik môj.
Ad "Jenze bohuzel, ti co umeji normalne cist anglicky text, si snadno prectou pod tou tabulkou, ze jde o nejrychlejsi jadra, ktera jejich optimalizacni code generator vyprodukoval. Pro ty pomalejsi - jsou to optimalizovane hodnoty. Ten popis je zde:
Figure 4. Performance of the fastest GEMM kernels produced by our code generator on the Radeon HD 7970. Matrix sizes are in multiples of 256."
Kde tam vidíš slovo, ktoré by znamenalo "optimalizacni"? Ty nie len že vlasten vôbec nevieš anglicky, očividne si vôbec nepochopil ten report. Pravdepodobná je kombinácia oboch možností. ;)
Už som ti to raz vysvetľoval. Tá tabuľka je len prvá časť práce, nájsť najrýchlejšie kernely pre dané vstupné parametre. Až v druhej časti prichádzajú optimalizácie, kedy sa forma vstupných dát automaticky prispôsobí tak, aby bolo možné využiť rýchlejší kernel. To sú tie fig 6 a 7, plus to, čo som tu už citoval z toho reportu. Každý, kto vie anglicky a má záujem, si to tam môže pozrieť a uvidí, že klameš až sa hory zelenajú. Čo ťa k tomu vedie, toť záhada... ;)
Pod fig 7 (kde sa výkon DGEMM v AB+C pohybuje na úrovni cca 800GFlops) máš jasne napísané:
"Figure 7. Performance of our AB + C GEMM implementation with a padding technique...."

Ad "Muzes se tu vykrucovat jak chces, ale nikdo te uz nebere vazne. Ja uz z tebe mam jen a pouze legraci :)"
Nech sa páči. :) Z čoho presne sa vykrúcam? Naopak, ty vôbec nereaguješ na to, čo som napísal. Prečo práve AB+C (ak je vôbec práve ten použitý na AT, to je nejasné), a prečo to vypovedá všeobecne (rôzne algoritmy, rôzne parametre,...) o výkonových pomeroch v GPGPU medzi dvoma GPU s úplne rôznymi architektúrami? Že by si sa vykrúcal? Hm?

Kde tam vidíš slovo, ktoré by znamenalo "optimalizacni"?
Treba tady:
When a set of parameters is given, the code generator produces the corresponding GEMM kernel written in OpenCL. The produced kernels are optimized for high-performance implementation on GPUs from AMD.
Ja opravdu nevim, jestli to jenom hrajes, nebo jsi opravdu hloupej, ale zacinam o tebe mit trochu strach :)

Bravo! To, čo si teraz vykopíroval je ale z abstraktu, a ak by si ten report čítal (a pochopil to), tak by si vedel, že to nesúvisí s tou tabuľkou, s ktorou tu neustále operuješ, ale až s tou druhou časťou, k čomu sú aj už toľkokrát spomínané grafy, fig 6 a 7. :D Fakt tlieskam.

K ďaľším pripomienkam v mojom príspevku si sa radšej ani nevyjadril ako vidím. ;) A mne tu budeš písať niečo o vykrúcaní sa.

No nič, asi sa radšej vrátim k tomu plakaniu. ;) Ty sa vráť... k čomukoľvek čo zvykoneš robiť... zjavne to nemá vysoké nároky na IQ.

Samozřejmě to teď zjednoduším, ale výkonostní rozdíl 16-20% odpovídá marketingové filozofii mezigeneračního růstu výkonu. Cenovka ovšem startuje na nemyslitelné částce (20% výkonu za víc jak 2x ceny?) ale jistě se najdou blázni, co si takto nesmyslně předražený výrobek koupí, pod vidinou falešné exluzivity. Nepřekvapilo mě to, avšak lehké sklamání nezapřu, především v oblasti power managementu karty.

ja jiz koupil a karta by me mela dorazit koncem tydne, a za blazna se opravdu nepovazuju, oproti GTX580 si polepsim v renderingu temer 5x (odzkouseno v byvalem zamestnani), nejaky hrani her nebo benchmarky me nezajimaji, takze nemam duvod ani je sledovat jestli tam karta vede nebo prohrava o nejaky smesny procenta, a mnou uzivanych aplikacich si karta vede dobre

pokud jde o pracovní hardware, jistě máte možnost najít v současné nabídce efektivnější řešení.

no vzhledm k tomu ze nam v bejvale praci proslo nekolik karet od obou tvurcu a Titan se ukazal nejlepsim, tak neni co resit

Vážený, pokud chcete dělat dojem tím, že jste si koupil toto GPU, prosím. Někoho tím možná oslníte...

Vážený, pokud chcete dělat dojem tím, že jste si koupil toto GPU, prosím. Někoho tím možná oslníte...

Mě osobně to přijde tak, že Nvidia nasadila tak vysokou cenu právě proto, aby si neparazitovali na svých Tesla kartách a nenastalo to, že by se herní grafika za "rozumný" peníz (řekněme kolem 15-16tisíc) ve velkém kupovala do výpočetních stanic. 
V každém případě ty provozní vlastnosti jsou vskutku výborné. Kdo by tohle čekal po Fermi, kdy někteří poblouznění lidi už posílaly Nvidii pod kytičky.

Ja si ripnu do spotreby, taka 7950 a 7970 s testu vam vyslo ze ma 7970 o 120W vacsiu spotrebu oproti 7950, ale ked sa pozriem na otacky ventilatorov su rovnake rodiel menej ako 1% v otackach a teplota je len o 5°C vysia. Tak kde sa schovali tych 120W  co ste namerali?
Rozdiel spotreby medzi AMD a NVIDIU raci nekomentujem.

a vsiml sis treba dost velkych rozdilu ve frekvencich mezi HD7950 a HD7970? nebo koukas jen na suchou spotrebu celeho PC a pak hned komentujes?
250MHz na GPU a 1000MHz na pametech je sakra rozdil kterej na celem PC tech 120W klidne udela

To ses asi díval celkem špatně, ne? Otáčky u HD 7950 2282, otáčky u HD 7970 2510 a u HD 7970 GHz Edition 2578. Krom toho evidentně porovnáváš spotřebu HD 7950 a HD 7970 GHz Edition 6 GB, jenže by sis taky mohl prvně ověřit, zda je ta HD 7970 referenční nebo ne. Byla totiž testována Sapphire Vapor-X HD 7970 GHz Editon, která má úplně jiný chladič, tudíž porovnáváš hrušky a jabka. A u rozdílu teplot zase přimícháváš referenční HD 7970.

Stránky

Reklama
Reklama
-->