Euro.cz Finance.cz Cnews.cz Edna.cz VideaČesky.cz Více
Flek.cz Profit.cz CoChceš.cz WoT.cz Raketka.cz Hryprodivky.cz Zdn.cz Nasvah.cz LetenkyLevne.cz Stahnu.cz Mujsoubor.cz Kniha.cz Více

Drtivý nástup Maxwellu: GeForce GTX 970 a GTX 980, Asus Strix a MSI TF V

Grafické karty v podání Nvidie nabírají správný směr a vysoký výkon už neznamená osazení přímotopu do slotu PCI Express. Nové GeForce přináší pokrok i po stránce funkcí a přinejmenším v dolarové ceně to Nvidia tentokrát nepřehání.

Shrnující grafy, výkon/cena, verdikt

 

Shrnující grafy

Shrnující graf je vytvořen tak, že v každé hře tvoří 100 % (základ) nejlepší výkon a od něj jsou odvezeny další relativní výkony. Takto nemá žádná hra větší váhu. Průměrující grafy jsou samozřejmě značně zavádějící a na rozdíl od předchozích kapitol rozhodně nejsou určeny pro čtenáře, kteří se o problematiku srovnávání grafik zajímají hlouběji. V rozlišení 2560 × 1600 px jsme samozřejmě neměřili slabší karty, spodní hranicí byl Radeon R9 270, resp. GeForce GTX 660.

Výkon/cena

Jestli je něco opravdu zavádějící, pak jsou to grafy poměru výkon/cena. Lačníte-li ale po nich, nezklamu vás. Tady je graf pro rozlišení 1920 × 1080 px a tady pro vyšší 2560 × 1600 px. U Radeonu R9 285 jsem cenu spočítal trojčlenkou na základě poměrné ceny v dolarech oproti R9 280X a eshopové ceny MSI R9 280X Gaming.

Verdikt

Nvidii se nová generace GPU skutečně vydařila a pro GeForce GTX 980 a 970 všude najdete spoustu chvály. I v našem souboru testů Maxwelly samozřejmě uspěly a v podstatě jedinou vážnější kaňkou jsou české ceny a případně dostupnost některých modelů. Když se podívám na cenovku 330 USD u nejlevnější GTX 970 někde na Neweggu a na ceny začínající něco pod 9000 Kč (včetně DPH) v českých e-shopech, je mi trochu smutno.

GeForce GTX 980 jsme testovali v provedení Asus Strix a jedná se bezesporu o vynikající highendovou kartu. Při mnohem nižší spotřebě a tím pádem také o hodně méně hlučném chlazení se v průměru jedná o výkonnější kartu než Radeon R9 290X. Ve většině případů se GTX 980 dostane i nad dosavadní jednočipovou vládkyni – GeForce GTX 780 Ti. I ta je samozřejmě svými provozními vlastnostmi úplně jinde.

Provedení Strix s chladičem DirectCU II se v případě GTX 980 jako kvalitní a do jistého zatížení si budete užívat zcela bezhlučný počítač. Ani po roztočení větráku není karta při hraní her hlučná, byť ze zkušenosti s dvěma GTX 970 si dovolím dedukovat, že podobně koncipovaný Twin Frozr V by nejspíš zvládl podobné chlazení s o něco nižší hlučností. Asus GeForce GTX 980 Strix za svůj soubor vlastností dostává ocenění We want it! To patří tradičně špičkovému hardwaru, který se však neprodává za zrovna lidovou cenu.

Hodnocení obou otestovaných GeForce GTX 970 se mi dělá trochu těžko. Na rozdíl od GTX 980 totiž jak karta od Asusu, tak grafika od MSI trpěly citelným cvrkotem cívek. Ten je v případě obou grafik paradoxně podtržen jejich zamýšlenou předností – hybridním chlazením a tedy nulovou hlučností až do určitého zatížení. Takto platí, že nulovou hlučnost si užijete jen při používání počítače ve „2D“, začátek 3D zátěže znamená cvrkot různé intenzity podle charakteru té které hry či benchmarku.

Další nepříjemností je skladová dostupnost těchto „lepších“ modelů GTX 970. Ve většině obchodů dostupné nejsou. K tomu česká maloobchodní cena, která z trháku v poměru cena/výkon (v rámci své třídy) dělá celkem obyčejnou grafiku.

Soubor vlastností je u GeForce GTX 970 přesto vynikající. Do 10 000 Kč se po ničem jiné nemá v podstatě smysl dívat a zvlášť, když tuto kartu popoženete ještě přetaktováním, dostanete se výkonnostně tam, kde nebyl předchozí highend s vyššími cenami a o dost horším příkonem.

GTX 970 si rozhodně zaslouží ocenění Smart Buy! a pokud mám vybrat ze dvou testovaných a poměrně dost si podobných modelů Asus Strix a MSI Gaming, volím druhý jmenovaný. MSI nastavila vyšší limit příkonu, takže karta lépe drží vysoký takt Boost a můžete ji snadněji přetaktovat a chladič Twin Frozr V se v tomto případě ukázal jako o něco efektivnější než DirectCU II Strix. Bylo by nicméně dobré, kdyby Asus s MSI odstranili zjištěný cvrkot cívek při spuštění 3D zátěže.

Oblíbené Tisk E-mail
Reklama

Komentáře

Pěkné karty - poté, co se vyjasnily určité pochybnosti, musím uznat, že od dob GTX 570 tu větší nářez nebyl - skvělý výkon v GPGPU (dokonce i v OpenCL), skvělá spotřeba, pecka... Jen mi chybí nějaký v nabídce nějaký odvážlivec, který by 970ku udělal jednoslotovou, refereneční takty, skvělá spotřeba a "tichost" (v jednoslotu by asi vzala za své) chci co nejmenším provedením potuplovat...

Fakt by mě zajímalo, co by s efektivitou a grafem cena/výkon udělaly testy pod Mantle (takhle to vypadá prostě příliš jednoznačně a realita až tak jednoznačná není - alespoň ve hrách tedy, v GPGPU se nVidii podařil opravdu průlom)...

Mantle je zatim v kolika, jen ve dvou hrach? Navic s rychlym CPU je jeho vliv minimalni - pripad tohoto testu. S pomalym CPU, tzn. s cimkoliv od AMD nebo nejakym levnym Pentiem, by to uz byla jina story. Ale zas jen pro ty dve hry ..

S čímkoliv od AMD? Pán je asi vtipálek. Možná tak Athlony2 a FX-4***. FX-83** podávají +- stejný výkon jako i5, takže pravdu nemáš. Samozřejmě jak v čem, ve WoT a třeba SuperPI intel exceluje.
Mantle je sice ve dvou hrách, ale v kolika za tu dobu, co Mantle je, je například PhysX a jaký má vliv na hru? Skoro žádný...

A všimli jste si vůbec někdo, že ta spotřeba není tak pěkná, jak se všude píše? GTX970 má TDP 145W, GTX780 má 250W a reálná spotřeba +- stejná, rozdíl 10W pro GTX970 není žádnej zázrak při (pravda) trošku větším výkonu.
Dál mě zajímá, jak to že vám vyšel výkon R9 290X tolik procent pod GTX780Ti, když výkon má jen o 3-5% nižší?

Je to mozno dane tym, ze GTX780Ti je nejaka pretaktovana edicia, kdezto R9 290X referencna. Podla mna takisto to je aj s R9 290. Je to potom trochu nefer, lebo nove GTX 970 a GTX 980 su v OC edici, kdezto starsie karty su v referencnej verzi. Takze si asi treba k vykonu niektorych starsich karet nejake percenta pripocitat.

A všimli jste si někdo, jaké jsou udávané referenční takty té 145W karty a jaké jsou reálné pracovní frekvence těch karet, co jsou v testech (a kam mají posunuté limity pro GPU Boost)? :)

Výsledek je takový, že přetaktovaná GTX970 žere stejně jako přetaktovaná R9 280X, jediný rozdíl je ve výkonu +10-20% pro GTX. Takže ty formulace jako drtička a podobné jsou pěkné kraviny, nic nového pod sluncem, něco jako předvedla HD7970 před 2-3 roky a tolik superlativů neměla, ikdyž to byl výkonový skok o mnoho více procent...
Jako grafika je to pěkná (GTX970), to jo, ale zase takový zázrak to není, jak si mnozí myslí...

Nevim, jestli uz jsi dostudoval rovnice, scitani a odcitani, ale "přetaktovaná GTX970 žere stejně jako přetaktovaná R9 280X" je matematika asi z nejake jine realitu.

Dle zdejsiho testu v Crysis si GTX 970 OC rekne o 308W, kdezto R280X OC si rekne o 393W. To vse pri o 22% vyssim vykonu, nez zvlada R280X OC :) Jestli rozdil 90W znamena "zere stejne", to necham na uvazeni ostatnich .. :D

Ach to zoufalstvi AMD fans: denial, denial, denial .. :D

Tak se ještě koukni na spotřebu ve Watch Dogs, tam je rozdíl cca 20 W...
Příště nevybírej to, co se ti zrovna hodí. Já jen konstatuju, že to není zase tak úsporná karta, jak si někteří zelenomozci myslí. Rozhodně nežere jen 145W, ale mnohem více a zjistilo to plno recenzentů po světě, že žere jen o něco málo méně než 280X. Oproti R9 290(X) je to samozřejmě více, ale i tak by se to dalo nazvat klamání zákazníka (zrovna jako to dělá VW se svými motory TSI, kde papírová hodnota spotřeby je okolo 4 litrů a reálná okolo 6-7)...
A jen pro informaci, měl jsem karty obou výrobců, tak moje oslovení AMD fan je trochu zcestné ;-) zvlášť když mám teď zálusk a čekám na GTX960...

Více žerou jen OC edice těch karet, v referenčních verzích (a v článku uvedená parametrová tabulka se týká jasně právě jich) mají opravdu papírovou spotřebu a výkon na cca předchozí generaci (jsou o hodně efektivnější a v GPGPU jsou opravdu suprové, můžeš o třídu zmenšit a ztišit svůj počítač) - nelže nVidia, protože v referečních verzích plní, co píše - do puntíku. Uvádějí nás v omyl spíše ostatní výrobci a producenti OC verzí, ale tak to už je lesk a bída taktovačů, mě osobně netrápí, protože půjdu po verzi na referenčních taktech s referenčním TDP...

Současně ale ve Watch Dogs ve 2560 × 1600 px už byl příkon celé sestavy s GTX 970 o dost nižší (viz tabulky v kapitole Přetaktování). Trochu to napovídá o tom, že hodně velký podíl na příkonu v rozlišení 1920 × 1080 px má procesor a rozdíly se pak stírají. V Crysis se CPU docela fláká, takže ten příkon je tam pro recenzi GPU o dost víc relevantní.

Výška TDP nie je ekvivalentná s výškou spotreby aj keď nepriamo naznačuje kde by sa mohla spotreba pohybovať. TDP by malo hovoriť o tom koľko tepla musí odviesť chladič od danej komponenty a nie akú má táto komponenta spotrebu.

http://en.wikipedia.org/wiki/Thermal_design_power

Opäť nasilu hľadáš niečo kde zasa ževraj NVIDIA podvádza. Podľa neustálych tkýchto komentárov mám pocit, že NVIDIA ani nič iné nerobí. Len zavádza, podvádza a klame. :-)

"TDP by malo hovoriť o tom koľko tepla musí odviesť chladič od danej komponenty a nie akú má táto komponenta spotrebu."

Výška TDP je ekvivalentní příkonu (spotřebě) komponenty - bude-li mít typický příkon 150W, zkrátka musíš dimenzovat chlazení tak, aby bylo schopno odvést 150W tepla. S tím nic neuděláš, to je fyzika...

Vypomôžem si citáciou z wiki:

"The thermal design power (TDP), sometimes called thermal design point, refers to the maximum amount of heat generated by the CPU, which the cooling system in a computer is required to dissipate in typical operation. Rather than specifying CPU's real power dissipation, TDP serves as the nominal value for designing CPU cooling systems."

Ja som v tomto neni žiadny expert a ani nemôžeme zaručiť, že informácie na wiki sú na 100% pravda. Aj tak sa už ale viackrát rozoberalo to, že TDP neurčuje reálnu spotrebu GPU ale že je to skôr informácia dôležitá pre dimenozvanie chladenia tejto komponenty. Ako to teda je? Podľa toho čo píšeš ty, je TDP == spotrebe grafiky. To mi ale nesedí...

Je to tak... Typický (či okamžitý) příkon čipu = teplo vyzářené do okolí.

Existují technologie, u kterých se touto poučkou již řídit nemůžeš, ale my se v běžné produkci stále setkáváme jen s "klasickým" křemíkem, pro který ta poučka platí.

Ok. Dík za info.

Tiež hovorím, v xy recenziách majú zostavy s 970/980 aj o 100W menšiu spotrebu než zostavy s 290/X, ich efektivita je všade vyzdvihovaná ba dokonca aj hlavný guru jedného, pardon jediného nezávislého weBBu na CZ/SK scéne upozorňuje na vynikajúcu spotrebu vzhľadom k výkonu no tu sme zase presviedčaný o tom že to vlastne ani nieje pravda a nVidia nás zase podviedla.

Doporučil bych článek jistého českého webu, kde známý to autor no-X více rozebírá problematiku spotřeby u Maxwellu. Či třeba test spotřeby na TomsHardware, kde se člověk dozví, že v určitých situacích může OC model GTX 980 mít díky jinak nastavenému limitu TDP i o více než 100W větší spotřebu než referenční karty.

Ano, limity 145W karty su o dost vyssie ako udava vyrobca, ale to je asi tym, ze maju posunuty limit spotreby.
A preto by bolo fajn ich porovnat s nereferencnou OC ediciou R9 290 resp. GTX780Ti.

Co je ale špatně je to, že se orecenzují upravené OC edice a jedním dechem se uvede "spotřeba jen 145W" a vůbec se to celé oslavuje (bez jakékoli hlubší analýzy) jako zásadní zlom. Přitom je to jen evoluce.

edit: jinými slovy: když se recenzuje oblíbená značka, je titulek vždy bombastický a článek plný superlativů. Když se recenzuje neoblíbený produkt/značka, je titulek vždy postaven tak, že tam je vnitřní rozpor a v recenzi se autor "neobává" zkoumat a kritizovat nedostatky.

"Dál mě zajímá, jak to že vám vyšel výkon R9 290X tolik procent pod GTX780Ti, když výkon má jen o 3-5% nižší?"
Souhlas, opravdu účelově navýšení výkonu pro 780ti. Na Nvidii zaslíbeném Pctu...ngu je test, kde jsou proti sobě objektivně podobné karty (290x a 780ti obě Asus Matrix Platinum verze) a celkově je rozdíl kolem 5-6% pro rozlišení 2560x1440....Těch 13% je nesmysl, nebo někdo chtěl tento rozdíl a testoval účelově.

PhysX do toho radšej nepleť. V prvom roku vyšlo 5 hier s GPU PhysX a toľko ich zhruba vychádza ročne aj teraz. S Mantle to vyzerá na podobnú situáciu. Vplyv na hru sa nedá porovnávať keďže ide o úplne odlišné API. Zatiaľčo PhysX má vplyv na vizuálnu stránku, Mantle zasa na plynulejší chod (ale žiadny vplyv na vizuál).

FX83xx podávajú +/- rovnaký výkon ako i5 pri bežných/reálne skladaných zostavách kde sú brzdené GPU - 260X/270/750Ti/660/760. V absolútnych číslach bez limitu GPU, v testoch s 780Ti/290X kde GPU ozaj nieje brzda je i5 herne kľudne 20-50% výkonnejšia než FX83xx, samozrejme v závislosti aká i5 a aké FX. Takže síce veta "S čímkoliv od AMD" rozhodne nieje úplná pravda, bohužiaľ pre 90% ich desktopového CPU portfolia to pravda je, veď ak by AMD malo ozaj tak bezprolémové herné CPUčka nielen v najvyššej rade osemjadier, Mantle resp. niejaké vyťaženie jadier/záťaž CPU by neriešili.

Bože, Maťko, že sa ti stále chce písať to isté dookola :) Presne toto som od teba tušim čítal na diit.cx, na ddworde detto a to nevravim na pctuningu. To si stale musíš honiť ego aký kauf si spravil a presviečať majitelov AMD, že im to proste nešlape? :p

Ja ti nevim, bud proste spokojny ako my s AMD :)

áno musím, ako protiváhu k istým úžívateľov a "tiežnovinárom" ktorí nás zase neustále pesviedčajú ako sú tie FX vlastne super úžastné a na všetko dostačujúce CPU a že za ich nevýkonnosť v istých oblastiach/hrách možu buď lenivý vývojáry alebo intervencia Intelu alebo kombinácia týchto faktorov a Grafiky od AMD zase jedniná rozumná a správna voľba oproti tej zlej, uzavretej a chamtivej nVidii ktorá nás len podzvádza, preznačuje a zaujímaví graf. čip nevyrovila už asi 58 rokov.. A btw. kde píšem že im to nešlape? Veď ako to tak po sebe čítam, píšem že "FX83xx podávajú +/- rovnaký výkon ako i5 pri bežných/reálne skladaných zostavách" tak vážne neviem... ... len upozorňujem na to že pri použití najvýkonnejších kariet sa proste výkon i5/i7 prejaví už veľmi výrazne. A píšem to najme preto lebo moje tvrdenia si možeš overiť na xy herných testoch kde ozaj medzi i5 a FX nieje herný rozdiel len "pár percent" ako to niektorí tvrdia, a preto že tým vyvraciam dokonca už neskutočne utopistické názory že FX8350 uživí aj dve 290/780 v SLI - áno aj to je niekto schopný napísať !!! PS: to by som sa pozrel kto si čo dokazuje keď herná výkonnosť i5 je od Sandy Bridge nespochybniteľná... ...kdešto práve majitelia FX série si častokrát potrebujú dokázať že to ich super AMD za super cenu je všade vlastne výkonnejšie alebo minimálne rovnako výkonné ako i5... ...a za neuspokojivé predaje možu agenti Intelu a zavádzajúca reklama.

Poprosím nejaké linky na tebou spomínané testy procesorov, veľmi ma to zaujíma :)

no takže se z těch tvých testů dozvíme přesně to, co už dávno víme. Všude plno prehistorických her využívající jedno, maximálně dvě jádra? A co takhle vzít třeba Crysis 3, aneb etalon toho, jak má moderní hra vypadat?

http://pctuning.tyden.cz/multimedia/hry-a-zabava/26363-crysis-3-test-nar...

No problém je v tom že tých hier ktoré využívajú viac jadier je stále žalostne málo že ano... superpopulárne WoT nieje stará hra a všetci vieme že využíva jedno jediné... to že zopár - aj Crysis 3 - dobre škáluje s počtom jadier je pekné, ale 80+% hier nie. A na to stále narážam, že síce FX83xx niesú slabé herné CPU ani náýhoudou, to som nikde nenapísal ale že sa stále najde dosť hier kde majú menej FPS než i5/i7 i keď je to čatokrát menej zhľadiska nezmyselných: AMD 80fps, Intel 120fps. Pretože bez urážky k AMD FX, ale počet hier ktoré idú lepšie na FX8000 než na i5 3/4xxx spočítam na prstoch jednej ruky a to aj tak budú rozdiely v ráchoch jednotiek fps ale počet hier ktoré idú viac či menej na výrazne vyššom počte FPS na i5 než na FX8xxx je násobkovo vačší. Zakončím to tým čo píšem všade, FX sú dobre niekde, vo vačšine hier, i5 všade. Peňaženka hárča pri kúpe rozhoduje.

Nuž, s každým tvojím daľším príspevkom som mal menej výhrad a teraz už môžem napísať, že s tebou jakžtakž súhlasím :) FX sú podľa mňa do mainstream PC okolo 500-800eur fakt dobrá voľba. Vždy radím ľuďom radšej si priplatiť za grafiku, ako nezmyselne do zostavy za 500 ečok dávať drahé i5ky. Myslím si, že z hľadiska využitia viac jadrových procákov to bude stále lepšie a lepšie a uvidíme, či sa po takých 2 rokoch nebudú majitelia FX smiať akú výbornú kúpu to spravili :)

Záleží od toho čo majiteľ s PC plánuje robiť aj v budúcnosti. Keď bude mať príliš slabý CPU a bude chcieť vymeniť grafiku, tak bude nahraný a bude musieť upgradnúť aj celý základ (prinajhoršom). Ideálne by bolo mať v novom PC taký procesor, ktorý obslúži v pohode aj 2krát výkonejšiou GPU než je kupovaná spolu so zostavou. Ja sa riadim týmto pravidlom a poslednú zostavu som kupoval na minimálne 5 rokov s predpokladanými 2 výmenami high end GPU Pomôcť tomu môže aj Mantle či DX12, ale to ešte uvidíme.

Ak sa za dva roky budú smiať majitelia FX, budú aj majitelia i5tiek. Kto chce/využíva viacjadrové programi si kúpy FX už dnes a ozaj veľmi výhodne, a hráči keď za dva roky bude matle v plnej sile a DX12, súdiac podľa doterajších recenzíí hier s Mantle budú na jednej lodi bez ohľadu na to či budú mať i3/5/7 alebo FX6/8000. PS: za dva roky tu bude 14nm Intel na novej architekúre s DDR4 a snáť aj komerčne dostupné nové veľké AMD. I keď FX/i5 budú herne/aplikačne hravo stíhať, budú staré už z techonlogického hľadiska, FX budú mať oproti novým intelo priam nehoráznu spotrebu a i5 aj FX zase nebudú mať DDR4... a to sú len veci o ktorých vieme teraz...

ano, zatím jich je stále málo, ale jak si napsal, je vcelku buřt, jestli ti ta hra běží 80FPS nebo 120 FPS - lidské oko nepozná. Čili ano, FX má v těchto hrách nižší výkon než I5, ale pořád je ta hra s přehledem plynule hratelná.

Na druhou stranu budoucnost je taková, jakou nám právě ukazuje Crysis 3 - a kdybych se měl řídit zdejšími herními testy CPU, tak bych zajásal na dvoujádrovým Pentiem, které rozdrtí i FX-8350 - jenže skladba prehistorických her v nízkém rozlišení je na míle vzdálená realitě. V Crysis 3 to dvoujádrový skvělý Pentium dostává takový čočky, že je to naprosto nehratelný i se sebevýkonnější grafikou. A otázka zní, jak bude situace vypadat za dva roky? Mám se raději řídit tím, co ukazují testy těch 5 let starých shitek a nebo to, co mi ukazuje test v Crysis 3?

Riaď sa doterajším vývojom,peňaženou a svojími predpokladmi. 8jadrá od AMD sú tu s nami 3 roky a vieme že tých hier ktoré podporujú viac jadier je stále žalostne málo,aj teraz vychádzajú hry ktoré ťažia len z 1-2 jadier, tie ktoré podporujú viac vychádzajú proste pomalšie... za dva roky to bude vďaka mantle/DX12 bezosporu nezrovnateľne lepšie, ale stále sa "nebojím" toho že za dva roky tu bude 80% hier škálovať s počtom jadier... Zakončím celkovo debatu z mojej strany, FX nech si kupuje ten kto predpokladá že do budúceho hrania to bude lešpia voľba než i5, kto má hlbšie do vrecka či mimo hrania využije aj tých 8 jadier. Ale za mňa ako majiteľa Haswell i5 píšem že posledná vec ktorej sa z hľadiska hernej výkonnosti bojím je že za dva roky nebudem stíhať za FX8xxx.

Mno tak bojuj. Inak 8350ka SLI 780/980 pohodlne utiahne dokonca v 4K. Tu je aktualny test zo včera, kde aj i7 dava :D

http://www.tweaktown.com/tweakipedia/56/amd-fx-8350-powering-gtx-780-sli...

Jak je vidět, na SLI je FX8350 dokonce o málo lepší než i7. Jen někteří jedinci, co mají i5 a nenávist k AMD si myslí opak a vyzdvihují zejména WoT a SuperPI a spoustu dalších starých programů, které využívají jen jedno, maximálně dvě jádra...
Zkuste tohle někdo napsat na konkurenčním modrozeleném webu a ukamenují vás :-D

viz můj odkaz o něco výše, kde je test Crysis 3, který narozdíl od prehistorických srágor využívající jedno, max. dvě vlákna a podle kterých se tím pádem vyzdvihuje herní výkon Intelu.

V Crysis 3 je takový I3 těžce bito i od FX-4300, FX-8350 na 4,5 Ghz mírně poráží i I7-3770K na taktéž 4,5 Ghz. Tohle je pořádná hra od precizních vývojářů, která umí využít potenciálu hardware

Do hernej zostavy AMD CPU su vyhodene peniaze. Uz len FX 4300 ci i3 su tak nepodstatne CPU do hernych zostav ze tym by som neargumentoval ani len formou vtipnej narazky. Testy aj tak netreba brat 100% do uvahy . Ja som hned nasiel niekolko kde je FX 8350 pod i7 3770 a to prosim pekne napriklad tu na 4,7 GHz a Intel ma v svoj prospech stale 10 FPS priemer v tebov vyzdvihovanom Crysis 3

http://cdn.overclock.net/a/a6/500x1000px-LL-a6196ef0_crysis3_cpua_human_...

tu su dalsie grafy kde AMD proste nema sancu v Crysis 3

http://www.techspot.com/articles-info/642/bench/CPU_03.png

http://cdn.overclock.net/7/7d/500x1000px-LL-7d31c35c_proz.jpeg

nic proti pctuningu, ale ich merania boli vzdy diskutabilne a to hlavne co sa testov hier tyka.

Dobře, má výkon o málo méně než i7-3770K, ten ale také stál skoro dvojnásobek.
Já naopak do herních pc, když někdo nechce pc za 30+ tisíc, dávám FX, protože vychází lépe než i3 a na i5 není většinou rozpočet.
PCT je kapitola sama pro sebe, ale pokud už jim tam vyšlo AMD výkonnější, tak už to tak opravdu muselo být a nebo tu recenzi nedělal (ZL)OBR, který má modro-zelená snad i záda až tam dole... :-D

I ked si asi myslíš že nanávidm AMD tak napriek tomu musím a jednoznačne s tebou súhlasím že do lacnejších herných PCčiek je FX6/8000 SUPER voľba. Lebo ako 100x píšem v spojení s "primernou" grafikou je rozdiel v hernom výkone FX/i5 minimálny až 0. Kde ako. Faktom ale zostáva že kto peniaze až tak nerieši, v PC má 280X/770 a lepišie v drvivej vačšine berie i5 resp. i7 lebo proste s nimi majú výkon všade - optimalizované/neoptimalizované hry, staré i nové.

ten kdo má peníze, tak určitě nevyhodí téměř 6.000 za pitomý I5, když za 6.500 může mít Xeon jakožto I7ku bez integrovaný grafiky :-)

Ať tak či tak, I5ka se mi zdá silně nevýhodná - je drahá a staví-li někdo PC na pár let dopředu, tak si raději pár stovek připlatí za 8 vláken. A nemá-li dost peněz, tak skončí max. u FX-8320 a nebo ještě lépe u nově ohlášeného FX-8310, které má stát 3.300, takty 3,4/4,3 a hlavně už přijatelné 95W TDP

Ale no tak, troška si si tie ceny už prisposobil aby ti to pasovalo čo ? :D 3,2GHz i5-4460 kúpiš od 4500kč, 3,4GHz Xeon E3-1231v3 od nejakých 6300kč takže vážne tých tovojích pomaly len 500kč rozdielu je utopia. A možno sa tebe zdá i5 silne nevýhodná, no jaksi predajanosť tomu nenasvedčuje... Btw. vážne si myslíš že ľudom/háčom až tak treba/bude treba 8 vlákien ? Pozerám herné testy, no zatiľ to tak nevyzerá, aplikácie ? ... Render/RAR/šifrovanie <5% záujem trhu... Stačí sa pozrieť na posledné tri roky - dajme tomu že som si pred troma rokmi kupoval herné PC a zvolil som si "len tak pre istotu, do budúcnosti" namiesto i5 2500K radšej to 8 jadrové FX8150 - nehovoriac o tom že v úvode bolo FX drahčie než i5. Rečnícka otázka, aký herný výkon napr. s OC oboch na 4,5GHz by som mal vtedy, počas tých troch rokov a aký herný výkon by som mal teraz s OC i5 či tým FX8150 ? Majitelia/hráči ktorích CPU vypisujú pri diskusiách že namajú na čo upgraidovať a že majú prebytok herného výkonu ? Stalo sa s toho FX8150 superherné CPU vďaka moderným a prichádzajúcim hrám o ktorích sme vtedy vkuse počúvali ? Nie, prvý Bull zhorel ako fakľa a jadrá mu nepomohli... ... dnes ako hráči počúvame o Mantle, je tu už myslím rok a čo sa stalo ? Koľko hier ho má ? 3-4 ? Sú snať teraz v tých hrách 8jadrové FX o 40-50-60% výkonnejšie než i5 lebo majú 2x toľko jadier ? Nie, a ak sa nestane zázrak, o rok, dva a ani tri sa to nezmení.

Jenže před třemi roky nebylo ani vidu ani slechu o nových konzolích, které právě využívají právě 8mi jádrové procesory AMD se slabším single core výkonem. No a myslíš, že herní vývojáři nebudou hry primárně vyvíjet pro konzolový trh, odkud se budou snadno portovat na PC. Jak říkám, Crysis 3 všem ukázal, jakým směrem se mají moderní hry ubírat a pokud někdo vydá v roce 2016 hru, která využije max. dvě jádra, tak to bude graficky absolutní tragédie, za kterou nemá smysl utrácet peníze

btw. nesrovnávej I5-4460 a Xeon ER3-1231v3, který běží 3,4/3,8 - v tomto případě by si musel analogicky dávat do cenového srovnání I5-4670, který už stojí hodně přes 5.000.

A rozdíl tisícikoruny v cenové relaci 25-30k už nehraje takovou roli, abych si tam dával I5, když o 4-5% dražší sestava může mít Xeon, který disponuje daleko vyšším hrubým výkonem

Prečo by som nemohol zrovnávať ? Bavíme sa o HERNOM CPU a tam tých pár 100MHz už veľa neznamená - píšem ako človek ktorí kým mi došla i5 4690 som mal v PC na chvýľku i5 4430 3.0GHz a s R9 280X bol herný rozdiel s R9 280X minilmálny... snáť len v GTA 4 ten CPU dával jednoznačne menej, či v Dirte 3 ale to bolo zase porovnávanie "ala" 100 vs. 120fps... a v hrách je ten sponínaný rozdiel medzi i5 a i7 teda Xeonom minimálny. Kto s chce hrať, Xeon riešiť nemusí. Btw. no neviem ako u Vás po tej intervencii národnej banky a hrátkach s kurzami, no u nás na Slovensku za 25-30kkč resp. 950-1100e hravo poskladám komplet zostavu aj s LCD založenú na i5/i7 "K" ktoré sú po OC herne trocha ine než akýkoľvek Xeon, R9 280X-290, 8GB RAM + skrinka, zdroj, chladič CPU proste komplet bedňa takže zase mne sa vidí dať do 1000e zostavy "obyčajného" Xeona blbosť keď tam može tykať i5/i7 na 4,5-4,7GHz... ...a naopak dosť ľudí je rado že naškiabe na i5, i keď sa tebe alebo mne može zdať že "veď už len tisícku si mohol doložiť a mal by si Xeona..." resp. radšej ušetria na i5ťke a priložia k VGA, RAMke, disku...

Je to ale jako všude, stačí trošku jiná metodika a vyjdou výsledky jiné. To samé jako testy spotřeby u aut, viz třeba VW a jeho laboratorní měření o minimálně 2 litry menší než spotřeba v reálu. Také to teď bude vysvětlovat EU soudu v Bruselu a čeká je nejspíš pár miliardová pokutka za klamání spotřebitelů ;-)

No s tým VW neviem neviem, laboratorne to testujú všetci - lebo je to tak normované a ak sa aj v súdne nariadenom opakovanom meraní perukážú rovnaké výsledky ako dosiahlo VW tak im nemožu nič. Lebo tak to proste testujú všetci a musli by žalovať všetkých čo by samozrejme k ničomu neviedlo lebo automobilka to opakujem testuje len tak ako može - tj. v laboratorú a za v bežnej premavke nedosiahnuteľných čislach.

Testují to všichni, to je pravda, jde o to, že VW nejvíce kecá a jeho papírová a reálná spotřeba jsou dost jinde. 2 litry není zanedbatelná hodnota, zvlášť u hodnoty 4 litry na 100 km. Ostatní automobilky se třeba liší jen o 0,5 litru a s lehkou nohou se toho dá i docílit, u VW je to těžká utopie...

toto Maťko nepredycha

Nie, to už ani v noci nezaspím :D. Lebo v jednom teste je FX na 4 hrách o zopár percent lepšie než i7... tých mojích 10 testov a ja neviem, 100testovaní nemožeme brať v úvahu lebo tam AMD viac či menej nestíha, smerodatné sú len testy kde je AMD rovnako výkonné/ o pár % výkonnejšie :D. A ako píšem nižšie, všetci vieme že 6jadrové nižšie taktované i7 niesú na hry bez OC nijak úžastné, stačila by najvššia i5/i7 ovšem to už by nemal ten test taký "Wow" efekt že násobne lacnejšia platforma je rovnako výkonná...

áno utiahne, bezpochyby týto pár hier áno. A mohlo by si mi vyhľadať aj nejaké testy ako utiehne v SLI ale kľudne aj s jednou grafikou hry ako Civilization V, Arma II a III, Rise Of Flight, Shogun 2, Skyrim, Anno 2070 či GTA 4 ??? i5/i7 ich dáva v pohode, len by ma zaujímalo či to bude tak OK aj u AMD... PS: test pekný, oba ale vieme že 6core i7 nieje na "stock" taktoch dobré herné CPU, daj tam i5 4690 či i7 4790 a i7 2011 nemá šancu... ............. ináč až teraz ma napadlo, možeme sa tu naťahovať a každý hájiť svoju stranu, úžívatelia dávajú jasne najavo čo je výkonnejšie resp. čo oni majú za výkonnejšie, stačí sa pozrieť na štatistiky používaných herných CPU na steame, videá na YT tých super herných PC akéže to tam majú CPUčka, herné fora, zostavy prof. hráčov, zostavy recenzenov hier/grafík atď...

kolko mas hier s DX12? 0?
AMD nieje az tak ze pomale, len programatori sa zameriavaju na optimalizaciu Intel procesorov, mantle robi len to, že to "8" fx amd je aspon vyuzivane, toť vsjo serioža

No pokiaľ viem, sú to 4 hry - BF4, Thief 2, Lichdom a Sniper Elite. Je ich asi toľko čo s ich vychádza ročne s HW PhysXom. A hlavne Mantle beží iba ak máte grafiku od AMD. Teda je obmedzený na jedného výrobcu GPU čipov, ktorý má ešte okrem toho v dedikovaných grafikách menší podieľ. Nie je to síce úplne dobré porovnanie, pretože APU a slabé mobilné grafické karty nepočítam (nemá u nich Mantle zmysel keďže aj obyčajné CPU ich dokáže bez problémov obslúžiť). Je to proste najzaujímavejšie iba ak máte gtrafiku z mainstreamu a vyššie v kombinácii so slabším CPU.

Ja osobne by som uvítal testy s Mantle, ale ako osobitný článok a nie súčasť veľkej recenzie. Bolo by zaujímavé zistiť, aký je najslabší CPU čo dokáže dobre využiť aj dnešné high end GPU a tiež aký má vplyv na minimálne FPS.

"No pokiaľ viem, sú to 4 hry - BF4, Thief 4, Lichdom a Sniper Elite."

Takze 2 hry :)

tohle vsechno je hezky msi asus gigabyte, ale proc se netestuji i jini vyrobci.rad bych videl v testu evga palit a tyhle "mene" zname znacky.

Ono je to trochu složitější. Vámi zmiňované značka většinou nemají v ČR své oficiální zastoupení, které by půjčovalo samply na recenze a obzvlášť těsně po uvedení nových modelů. Můžeme být proto rádi alespoň za karty známějších výrobců.

Vďaka za skvelú recenziu.

Skvely test, skvele karty! Vykon GTX980 na urovni SLI GTX680, to uz je co rict. Mozna je na case prodat moje GTX 560Ti SLI a upgradovat.

Ví se vůbec, kdy by mohla nvidie prejit z 28nm na mensi technologii(treba 14nm)? Na 28nm je zasekla uz pekne dlouho

a at taky nekdy chvalim - skvela recenze, jen tak dal :)

Je zajímavé, že se nikde moc nepíše o tom, že ty karty mají trochu blbě umístěný HDMI konektor, takže v některých case (třeba Silencio 352) je problém s jeho pořádným zasunutím – musite bud ubrousit cast case "nad HDMI konektoremn" nebo proste tlusty HDMI konektor "opižlat".

cvrlikanie cievok mam aj na mojej GTX 780 od MSI. Zo zaciatku ma to privadzalo do sialenstva ale casom som si zvykol, len by ma zaujimalo co to sposobuje. Ked budem kupovat novu kartu uz si dam na to pozor, len skoda ze pri testovani na toto takmer nikto ohlad neberie zatial co diskusii s takym "problemom" som nasiel viac. V buducnosti ked budem kupovat novu kartu tak uz by som si na to dal pozor. Bolo by fajn ak by ste to vo vasich testoch uvadzali ci su karty zbavene akychkolvek parazitnych zvukov. Len tiche chladenie niekedy naozaj nestaci. Inak pekny test tak ako vzdy.

Dobrý den, rád bych se zeptal na jednu věc. V kapitole o hlučnosti uvádíte, že Asuska GTX 970 se točí minimálně 35 % / 720 RPM. MSI pak 25 % / 563 rpm. Toto jsou skutečně minimální hodnoty, na kterých se může ventilátor otáček, nebo minimální hodnoty, které jdou nastavit takovým tím rychlým posuvníkem v ovládácím programu ke grafice (u MSI je to Afterbunner)?

Jde mi o to, že pokud nechci, aby mi karta běžela v pasivním režimu, u MSI mohu nastavit těch 25 % nebo i méně v grafu, kde nastavuji závislosti teploty a otáček, ale pokud zde nastavím pod těch 25 %, je skutečně vidět, že ventilátor se fyzicky nezvládá se točit méně – prostě se zapne, vypne, zapne atd. Těch 25 % u MSI je neslyšitelných, proto mi to nevadí. Ale 35 % / 720 RPM, pokud je to skutečně fyzické mimimum otáček u Asusky, bych už považoval za hlasité.

Popravdě jsem si nevšiml, kdy přesně roztočí větrák automatika. Zkoumal jsem to pomocí toho posuvníku a našel „minimální procenta“, na které zareagoval ventilátor roztočením. A 720 rpm je u těch nízkoprofilových větráčků s průměrem 9 či 10 cm tichou záležitostí (pokud někdo nespí hlavou hned u takového PC).

No, já to taky nesledoval, ale ono je to vidět v tom Hardwarovém monitoru Afterbuneru (tam, kde sledujete zatizeni GPU atd.). Tam jde sledovat počet RPM. Když jsem treba MSI v grafiku teplota/otacky nastavil na 15 %, tak v Hardwarovém monitoru byl perfektne vidět, jak se to roztocilo a zase spadlo, roztocilo a zase spadlo. Bylo by možné nějak zjistit?

U mě je 720 rpm hodně – mám opravdu tické PC, a "nejvíce" hluku dělá CPU_FAN na cca 450 RPM. Píšu sice nejvíce hluku, ale není to slyšet. Ale jakmile se pak roztočí na 620-650 RPM, už slyšet je.

Obě karty od Asusu už jsem vrátil a grafiku od MSI tu mám nachystanou pro kurýra, co ji bude vyzvedávat. Už s tím tedy nemůžu experimentovat.

Nevadí – našel jsem k tomu nějaké fórum, a zdá se, že těch 35 % je skutečně fyzické mimimum u Asusky. Resp. jde nastavit to i cca 520 RPM, ale po vypnutí a zapnutí PC se ventilátory neroztočí (ačkoliv by podle aktálně nastavené křivky měly). Díky za čas :)

Hello
V prvom rade fajna recenzia, gratula.
Chcem sa, ale hlavne spýtať ako spúštate stéle ten replay mapy Fjordy? Ja som si to teraz chcel prehrať a na aktualnom klientovy to už proste nejde spustit(Nefunguje ani možnosť "ignorovať rozdieli" a replay nespusti).

Pro korektní spuštění toho replaye je nutné si zachovat starého klienta (stačí tu složku s verzí hry 9.0 někam zkopírovat a pak teprve nechat tu pro běžné hraní používanou aktualizovat).

Může mě autor vysvětlit tohle - "a v podstatě jedinou vážnější kaňkou jsou české ceny a případně dostupnost některých modelů. Když se podívám na cenovku 330 USD u nejlevnější GTX 970 někde na Neweggu a na ceny začínající něco pod 9000 Kč (včetně DPH) v českých e-shopech, je mi trochu smutno"

Jestli o tom autor neví ceny v USD jsou bez DPH. 330USD = 330*21,5 = 7100 + 21%DPH (1500,-) = 8600,- tedy něco málo pod devět tisíc, tedy +/- uplně to samé co v českých cenících.

Kartu mám zatím chvíli, ale je radost na ní hrát. V nenáročných hrách nezapíná chlazení vůbec, naopak v náročných je hodně tichá a muj kus jede na 1329MHz, což je pohoda. Chladič zatím netočil víc než nějakých 1150rpm a to je z více jak 1m téměř neslyšný i během hraní. /obyč 12cm Gelid co mám na CPU a v case je hlučnější/. K pískání cívek - dělala to 670 od asusu i 770 od MSI, 970 to dělá taky, trochu slaběji. Opět z 1m to není víceméně slyšet, zapracovat by na tom ale samozřejmě mohli. Se zapnutým Vsync /v mojem případě pořád/ je to lepší.. btw. Shadow of Mordor jede v maximálním nastavení /samozřejmě krom ultra textur/ v 1920*1080 60 FPS pořád. To na 770 nehrozilo..

Všichni jste tu odborníci a máte zkušenosti i s GK ve vyšší cenové hladině. Předpokládám, že děláte i jiné věci než hrajete hry. Poraďte tedy jaká GK je podle vás nejvhodnější na úpravu videa, fotek atp. Jde především o plynulý posun videa při úpravě, rychlost při ukládání, slučování a tak.
Nenechte se omezovat žádnými komponenty.

Záleží na tom jaký sw pro video užíváš (ten většinou v popisu uvádí jaké karty doporučuje) - ale trošku tě navedu i na základě tvého chabého vstupu (vážně je třeba více konkrétních informací):

Uvažovat zde o high-endu nemá příliš smysl, na foto, bitmapy a 2D vektory do 4K rozlišení ti postačí i integrovaná grafika, na základní úpravy videa v 1080p ti bude bohatě stačit střední třída (cca 4-7000,-) klidně i s pouhým 1GB VRAM. (pěkná je třeba tato: http://www.czc.cz/msi-n760-2gd5-oc-itx/143123/produkt , nebo tato: http://www.czc.cz/sapphire-r9-285-2gb-gddr5-itx-compact-oc-edition-uefi/... - víceméně je to v této kategorii a s ohledem na tvé vcelku nízké požadavky otázka vkusu)

Až pokud bys pracoval s 4K videem, videoefekty, CGI, renderingem či úpravou 3D, by mělo smysl uvažovat o vyšší lize.

Díky za reakci ;-)
Jedná se mi pouze o úpravu běžného videa, v žádném případě 3D, 4K atp. Pro úpravu už dlouho a k naprosté spokojenosti používám TS Doctor. Práce provádím na PC s Win 8.1 64-bit, Intel Core i5-2500K 3.30GHz, 8.0 GB RAM,Nvidia GeForce GTX 560Ti.
Se sestavou nemám problém, jediné, co bych rád urychlil je posun a vykreslování videa při ruční prohlídce videa, protože nyní musím po posunutí na další místo chvilku počkat na vykreslení obrazu. Představoval bych si "okamžité" vyobrazení. Rovněž bych uvítal rychlejší přepočet a uložení hotového souboru. Při velikosti souboru cca 5 GB trvá uložení cca 2 minuty. Nechá se to ale přežít.
Kdybych věděl, že mi lepší GK pomůže, šel bych do ní, ale právě nevím.
Ty navrhované jsem si prohlédl a porovnal se svou GTX 560 Ti a musím přiznat, že mě překvapilo, o kolik mají nové karty lepší parametry. Na druhou stranu mě zarazilo, že u mé GK je uvedeno (CZC) Shader Clock 1800 MHz a u těch nových jen 980 resp 925 MHz. Také je možné, že se někdo v CZC upsal :-).
Hry nehraju, pouze někdy si vnuk zahraje Word of tank, nebo něco podobného :-)
Každopádně za rady děkuji a přeji pěkný den - JiP

No tak děkuji za obšírnější a konkrétnější informace, teď už vydedukujeme co s tím...

Váš problém se netýká grafické karty (která je pro vaše účely stále naprosto vyhovující), ale procesoru, TS Doctor neakceleruje výstupy pomocí grafické karty. S oběma zmiňovanými problémy vám pomůže jedině výměna procesoru (buď novější i5, nebo do vaší starší patice sežeňte z druhé ruky i7 - víc jader v tomto případě 4/8HT se projeví razantním navýšením výkonu), nebo jeho výraznější přetaktování.

Koukal jsem do nějakých testů a u core i7 2600K můžete očekávat cca o 15% lepší výsledky (to se projeví hlavně při "ukládání" toho videa) - není to moc, ale pak už vám zbývá jedině zvolit jinou platformu (starší i7 šestijádra), či novější.

Hlavně si pamatujte, že pro ideální práci s videem (bez akcelerace pomocí grafiky), je přední preferovat co nejvíce jader, vláken...

Ako ste dokázali dostať MSI na +220? Na +200 mi pri hraní Alien Isolation mrzol celý systém.

Asi jsme měli jinej kus :-)

+220 dáva cez 1550 MHz. Neexistuje, aby tá karta bola stabilná s takýmto pretaktovaním. Nie len mne, ale ani žiadnym iným recenzentom sa nepodarilo prekročiť hranicu 1.5 GHz. Nie len kvôli stabilite, ale aj kvôli TDP.

Náš kus dával ve Watch Dogs stabilně 1548, v Crysis ve speciálně vybrané scéně pak 1526 MHz. Koneckonců, jak je to i s výsledky po přetaktování uvedeno v článku. Jestli nevěříte, vaše potíž.

Je náhoda, že na screenshote nie je vidieť ani priebeh frekvencie jadra, ani TDP a ani limity? Nemyslím si. Sú tam nič nehovoriace údaje, ktoré majú pre pretaktovanie nulovú informačnú hodnotu. Azda sa nebojíte ukázať tie fluktuácie, alebo áno?

Celé je to komplot ;-)

Reklama
Reklama