Euro.cz Finance.cz Cnews.cz Edna.cz VideaČesky.cz Více
Flek.cz Profit.cz CoChceš.cz WoT.cz Raketka.cz Hryprodivky.cz Zdn.cz Nasvah.cz LetenkyLevne.cz Stahnu.cz Mujsoubor.cz Kniha.cz Více

MSI GTX 960 Gaming 4G aneb R9 380(X) proti čtyřgigové GeForce GTX 960

GTX 960 s 4GB videopamětí už jsou běžně rozšířené, po uvedení Radeonů R9 380X se navíc ve střední třídě konečně pohnuly ceny. Nejvyšší čas na aktuální test obsahující všechny tyto grafiky.

GeForce GTX 960 byla uvedena začátkem tohoto roku a zejména její 128bitová paměťová sběrnice způsobila mezi hardwarovými fanoušky dost velké rozčarování. V cenách v přepočtu okolo 6000 Kč jsme na něco takového už přece jen nebyli zvyklí. Čas ukázal, že to od Nvidie nebylo hloupé rozhodnutí a ani velká výkonnostní i cenová díra mezi GTX 970 a 960 nedělá Kaliforňanům i společnostem prodávající grafické karty s jejich GPU vrásky. MSI se dokonce netají tím, že GeForce GTX 970 je její nejprodávanější grafika. A to se bavíme o kartě za 10 000 Kč. Můžete hádat, která je asi tak druhá. Ano, GTX 960.

Na EHW jste zatím v testech mohli vidět vždy jen 2GB variantu GTX 960. Ta se momentálně dá koupit za něco málo nad pět tisíc korun, různé přetaktované verze s lepším chlazením pak stojí více. AMD ale v tomto segmentu bojuje s těžším kalibrem v podobě Radeonů R9 380 a 380X (GPU Antigua alias přeznačená Tonga). Poslední recenze R9 380X ukázala, že zatímco v rozlišení Full HD (1920 × 1080 px) není výkonnostní rozdíl mezi R9 380 a GTX 960 tak velký, aby se vyplatilo obětovat výrazně lepší provozní vlastnosti GM206, ve 1440p (2560 × 1440 px) už Radeony hodně odskakují.

Otázka, jestli něco změní osazení GTX 960 dvojnásobnou velikostí pamětí – tedy 4 GB, visela ve vzduchu. Uvedení her jako Watch Dogs, Assassin's Creed: Unity či nejnověji GTA V, nutí uživatele o nedostatečnosti 2 GB grafické paměti přemýšlet už i v kombinaci s monitorem zvládajícím nejvýše 1080p. Aktuálně jsou kupříkladu v první desítce nejvyhledávanějších karet na Heureka.cz hned tři GTX 960 se 4 GB paměti. Navzdory tomuto faktu nastal menší problém se sehnáním karty pro test – při uvedení GTX 960 všichni výrobci měli jen 2GB variantu a vzorky mimo uvedení GPU na trh už typicky nikdo nedostává.

Naštěstí jsme měli nedávno test šesti herních PC a někteří výrobci právě na 4GB GTX 960 vsadili. Rozkuchal jsem tedy počítač HAL3000 MČR Pro 2016 a potřebnou čtyřgigovou 960 začal trápit v naší testovací sestavě v tradiční sadě testů. Přicházíte tím o šanci vidět originální příslušenství karty, nebudu ale asi daleko od pravdy, když řeknu, že si s dražší GTX 970 Gaming 4G nikterak nezadá.

GTX 960 Gaming 4G používá také stejné chlazení jako dříve testovaná GTX 970 Gaming. Masivní Twin Frozr V se dvěma nízkoprofilovými větráky umí tzv. hybridní chod. Dokud nezatížíte GPU tak, aby jeho teplota překročila 60 stupňů Celsia, zůstanou větráky zcela v klidu. Od zmíněné hodnoty se roztočí (nejdříve ten obklopený červeným plastem) na zprvu hodně nízké otáčky a dle potřeby jsou regulovány dále.

GTX 960 v provedení Gaming není zdaleka takový prcek jako Gigabyte GTX 960 ITX (17 cm) a PCB pod Twin Frozrem V má podobné rozměry jako právě GTX 970. Menší potřebný příkon indikuje jediný osmipinový konektor pro externí napájení PCI Express 2.0 (150 W). GTX 970 Gaming má navíc ještě přídavný šestipin PCIe 1.0 (75 W). Napájení je tak navrženo hodně robustně a určitě nebude limitem pro nějaké hrátky s přetaktováním.

 

Detekce GPU a schopností videoprocesoru

 

Můžete srovnat s videoprocesorem v Radeonech R9 380/380X (Antigua):

 

Parametry referenčních řešení

 GeForceGeForce GeForce GeForce GeForce GeForce GeForce GeForce 
 GT 740GTX 750GTX 750 TiGTX 660GTX 950GTX 760GTX 960GTX 970
JádroGK107GM107GM107GK106GM206GK104GM206GM204
Výrobní proces28 nm28 nm28 nm28 nm28 nm28 nm28 nm28 nm
Velikost jádra118 mm²148 mm²148 mm²221 mm²228 mm²294 mm²228 mm²398 mm²
Tranzistorů1,3 mld.1,87 mld.1,87 mld.2,54 mld.2,94 mld.3,54 mld.2,94 mld.5,2 mld.
Stream procesorů384512640960768115210241664
Takt jádra993 MHz1020 MHz1020 MHz980 MHz1024 MHz980 MHz1126 MHz1050 MHz
Takt Boost1085 MHz1085 MHz1033 MHz1188 MHz1033 MHz1178 MHz1178 MHz
ROP/RBE1616162432323264
Texturovacích jedn.32324080489664104
Paměť1 GB GDDR51 GB GDDR52 GB GDDR52 GB GDDR52 GB GDDR52/4 GB GDDR52 GB GDDR54 GB GDDR5
Takt pamětí5 GHz5012 MHz5400 MHz6008 MHz6600 MHz6008 MHz7010 MHz7000 MHz
Šířka sběrnice128-bit128 b128 b192 b128 b256 b128 b256 b
Propustnost pamětí80 GB/s80,2 GB/s86,4 GB/s144,2 GB/s105,6 GB/s192,26 GB/s112,16 GB/s224 GB/s
Fillrate (pixely)15,9 Gpx/s16,3 Gpx/s16,3 Gpx/s23,5 Gpx/s Gpx/s31,36 Gpx/s36,05 Gpx/s67,2 Gpx/s
Fillrate (textury)31,8 Gtx/s32,6 Gtx/s40,8 Gtx/s78,4 Gtx/s49,2 Gtx/s94,1 Gtx/s72,1 Gtx/s109,2 Gtx/s
FLOPS763 GFLOPS1,044 TFLOPS1,23 TFLOPS1,89 TFLOPSTFLOPS2,26 TFLOPS2,3 TFLOPS3,63 TFLOPS
TDP64 W55 W60 W140 W90 W170 W120 W145 W
Délka karty15 cm15 cm15 cm23 cmcm24,5 cm24,5 cm25,5 cm
DirectX11.011.011.011.01211.01212
 RadeonRadeonRadeonRadeonRadeonRadeonRadeonRadeon
 R7 360R7 370R9 280R9 285R9 380R9 380XR9 280XR9 290
JádroTobagoTrinidadTahitiTongaAntiguaAntiguaTahitiHawaii
Výrobní proces28 nm28 nm28 nm28 nm28 nm28 nm28 nm28 nm
Velikost jádra160 mm²212 mm²365 mm²366 mm²366 mm²366 mm²352 mm²438 mm²
Tranzistorů2,08 mld.2,8 mld.4,31 mld.5 mld.5 mld.5 mld.4,31 mld.6,2 mld.
Stream procesorů7681024179217921792204820482560
Takt jádra1050 MHz925 MHz827 MHz918 MHz970 MHz970 MHz1000 MHz947 MHz
Takt Boost975 MHz933 MHz
ROP/RBE1632323232323264
Texturovacích jedn.4864112112112128128160
Paměť2 GB GDDR52/4 GB GDDR53 GB GDDR52 GB GDDR52/4 GB GDDR54 GB GDDR53 GB GDDR54 GB GDDR5
Takt pamětí6 GHz5,6 GHz5 GHz5,5 GHz5,5 GHz5,7 GHz6 GHz5 GHz
Šířka sběrnice128-bit256 b384 b256 b256 b256 b384 b512 b
Propustnost pamětí96 GB/s 179,2 GB/s240 GB/s176 GB/s176 GB/s182,4 GB/s288 GB/s320 GB/s
Fillrate (pixely)16,8 Gpx/s29,6 GPx/s26,5 Gpx/s29,8 Gpx/s31 Gpx/s31 Gpx/s32 Gpx/s60,6 Gpx/s
Fillrate (textury)50,4 Gtx/s59,292,6 Gtx/s102,8 Gtx/s109 Gtx/s124,2 Gtx/s109 Gtx/s151,5 Gtx/s
FLOPS1613 GFLOPS1,894 TFLOPS2,87 TFLOPS3,29 TFLOPS3,476 TFLOPS3,97 TFLOPS4,1 TFLOPS4,9 TFLOPS
TDP>100 W>110 W> 250 W>190 W>190 W>190 W>250 W>250 W
Délka karty17 cm21 cm27,5 cm24,5 cm22 cm22 cm27,5 cm27,5 cm
DirectX121211.212121211.211.2

 

GM206 – parametrový outsider

Oblíbené Tisk E-mail
Reklama

Komentáře

Inak dávam do pozornosti všetkým aj troška iný pohľad na 2GB vs 4GB pri kartách NVIDIA GeForce GTX 960 a AMD Radeon R9 380, ktorý vykonala tento týždeň redakcia computerbase.de
link: http://www.computerbase.de/2015-12/2gb-4gb-gtx-960-r9-380-vram-test/3/

Apropo len pre zaujímavosť moja 4GB GIGABYTE GTX 960 WINDFORCE 2X OC Gaming (181 mm) v nemenovanom intergalaktickom eschope koštuje o 50,- CZK viac ako 2GB GIGABYTE GTX 960 WINDFORCE 2X OC Gaming (181 mm). Asi to netreba viac komentovať cena/výkon...

Vzhľadom na vyššie uvedené síce nerád, ale s Mirkovými závermi nemôžem nikterak súhlasiť - a aj z osobných skúseností s novšími hernými titulmi sa prikláňam k záverom computerbasu, že časy 2GB verzii sú jednoducho preč.

Souhlas. Třeba z novinek Fallout 4, kde se využití VRAM pohybuje mezi 1900-2100 MB. Na GTX 760 bojuji o každý megabajt paměti...

Ale jasně. Pokud jdu do krámu, kde je mezi mnou vybranou kartou rozdíl nula nula nic v případě 2, nebo 4GB verze, tak neváhám. A pokud vím, že hraju hry náročné na grafickou paměť (což se dá dnes už snadno vysledovat), tak připlatím i větší rozdíl (nejlevnější 2GB GTX 960 je teď podle rychloprůzkumu na Heurece v ČR skladem za 5300, 4GB za 5999). Pointa byla v tom, že tu masu, co si kupuje GTX 960, protože se jim jednoduše trefuje do kombinace cenový limit/málo žere+tichá/na „to moje FullHD hraní“ stačí, 4 GB nevytrhnou. Určitě bych rád dal na zřetel, že něco jiného je selekce pěti her pro demonstraci vlivu velikosti videopaměti u mainstreamu AMD a NV a něco jiného je to, co se dnes povětšinou hraje (a jak nastaveno ještě k tomu).

Tak ja som našiel z pomedzi Vašho prieskumu "Volba čtenářů 2015: vyberte nejlepší IT produkty a výrobce za celý rok" troch e-schopov, ktoré v ňom nteraz dominujú najlacnejšiu 4GB GTX 960-tku dokonca v prevedení Mini-ITX GIGABYTE GV-N960IXOC-4GD, 4GB za 5 689 Kč. Apropo predbežne čo som tam teraz nakukol 960-tka deklasuje 380 (380X)... Dúfam, že sa ešte schopia takáto nakladačka určite nie je namieste.

Domnievam sa, že ak je rozdiel pár stovák medzi 2GB a 4GB medzi tým istým výrobcom grafickej karty tak nie je čo riešiť ak najblišia 970-tka je cenou, ale aj výkonom úplne inde.
Ono aj tak zrejme už v priebehu 02/2016 už zrejme okrem výrobcov PC sa k 2GB verzii človek nedostane. Toto miesto bude zastávať už len 2GB GTX 950-tke.

Mirku je veľká škoda, že tunajšie grafy neobsahujú natívne aj min FPS pretože mnohí si to ani samostatne nerozkliknú pričom práve aj tu 2GB vs 4GB sa to naozaj mnohdy oplatí pozrieť si !

Zrovna jsem chtel zacit nadavatze tu nejsou zadne min. Fps, tudiz tento test nema zadne opodstatneni - dik za info, ze to tam je - pokaazde jsem to prehlizel :).
Kazdopadne nevim jak to vidiostatni, ale pri testu 4gb vs 2gb jednejedné grafiky tak bych se obesel, bez vykonu oststnich gpu a radsi bych videl prubeh fps (krivkou) tech dvou karet vedle sebe... Min fps bych videl jako minimalni (alespon tu) informaci kterou jsem tu pozadoval. Prubeh fps by teprve ukazal realny rozdil a opodstatneni koupi 4gb grafiky pred 2gb.

Min. fps jsou hodně problematický, resp. málo vypovídající údaj. Tedy aspoň jako jediné číslo. I proto jsou upozaděny. Zajímavější jsou už třeba ve statistice z vícero testů.

Hodně průběhů z FRAPSu mám zaznamenáno, nebýt FCATu a zjištění, že to taky není úplně ono, zkusil bych si dát tu práci a nějaké srovnání předložit.

Zdravím taky bych se podělil se zkušeností k tématu. Stalo se něco co jsem nečekal.
Vzhledem k tomu, že jsem si koupil GIGABYTE R9 380X tak jsem ji prohnal 3D markem. Mám stařičký počítač s FX 8320 procesorem, DDR3 1600 8GB RAM a deska neumí PCI EX 3.0 16, čili jede na 2.0.
Kamarád si nyní koupil PC s nejnovějším I5-6500, má taky 8GB RAM a totožnou grafikou. Navíc jeho PC má tedy PCI EX 3.0 16 a využívá DDR4 RAM.
Domluvil jsem se tedy ze zvědavosti, že si udělá taky testy v 3D marku. Říkal jsem si o kolik dostanu náklep... Co se stalo mi však vyrazilo dech, protože já náklep nedotsal...
Postnu sem výskedky testů přidal jsem i testy na starší sestavě od kámoše a přibude i test od dalšího kámoše co má FX6300 a R9 280X.
1. FX8320/R9 380X - DDR3 1600 https://onedrive.live.com/redir?resid=52FCAC66F167998!1521&authkey=!AD4a... nutno však podotknout, že CPU mám nataktovaný bez zvyšování napětí na 4,6.
2. I5-6500/R9 380X - DDR4 2400 https://onedrive.live.com/redir?resid=52FCAC66F167998!1515&authkey=!AKp4...
3. PHENOMIIX4-965/R9 270X - DDR2 800 https://onedrive.live.com/redir?resid=52FCAC66F167998!1522&authkey=!ADav...

Takhle to vyšlo mě s R9 280X

http://www.3dmark.com/fs/3559672

tohle mám když tu Gigabyte zvednu na stejný takty jako je ta Sapphire. Pěkný výsledek ;-)

Jinak aby si někdo nemyslel, že to beru jako jakési vítězství. Neberu jen mě to překvapilo opravdu sem čekal, že jak se říká ta moje sestava dostane náklep. A přitom je to plichta.

Možno to bude tým, že je to tiež v podstate dúchodca avšak na steroidoch :-) GPU má ako kdysi Tahiti 2048 SPs (32 CUs) se 128 TMUs a 32 ROPs a akokoľvek to má 256 bit tak už je potvrdené, že sa tam vpodstate fyzicky skrýva 384bitová pamäťová zbernica.
Proste Radeon HD 7970 (Tahiti 384 bit) => R9 280X (Tahiti 384 bit) => R9 380X (GPU Antigua alias preznačená Tahity na steroidoch 256 bit z 384 bit /128 bit deaktivovaných/)

tak ono to jádro je pozměněné přecijen to je GCN 1.2 stejně jako Fury... Jinak ano 7970 GCN 1.0 byla a stále je super grafika... Prostě se povedla. Jsem zvědavý co přinesou nové grafiky. Nicméně asi ta grafika nebude brzdit to CPU nebo si snad myslíš že ano? Žes to tak napsal.

Veď preto som napísal na steroidoch (GNC => GCN 1.2)

Jednoducho Intel Core i5-6500 Processor (3.2GHz / 3.6GHz, Skylake 4C/4T) s PCIe 3.0 x16 nemôže brzdiť viac AMD Radeon R9 380X ako AMD FX-8320 (3.5GHz / 4.0GHz, Piledriver, 4C/8T) s PCIe 2.0 x16. ...

No když to bereš takhle tak prakticky vše co se dnes prodává je předchozí verze na steroidech :-)... Např na poli CPU Byly velké změny přechod Intelu z P3 na úplně jiný P4 a pak na architekturu Core následně Core I.. U AMD to byl třeba příchod 64 pak modulírní CPU další změnou bude Zen... jinak sou to furt refreše předchozích verzí s přídavky... Pookud to takhle chceš brát pak ano máš recht :-)

Tak tak, i5@3,2GHz herne rozhodne nepredstavuje brzdu pre 380X (to tak pre GTX980@1500MHz), ani v porovnaní s jeho 4,6GHz FX8320...

Fire Strike 1.1 mu vyšlo celkové skore pre kombo GX8320@4,6GHz+380X o 1,9% výkonnejšie než i5@3,2GHz+380X, rozdiel v grafikckom skoré je dokonca len 0,8% - to sú rozdiely vrámci chyby merania.

mno maťko zapomínáš, že ten procesor má turbo :) Který se v 3D marcích pouští ;-) (nejede na 3,2 ;-)) A ano sám uvádím, že mám procesor na 4,6 bez zvedání napětí... Kdybych to neuved tak nevím co bys říkal :-) Ale tak čestně jsme to uved i zdůraznil... Nevím jak by to dopadlo na nepřetaktovaném procáku. Ale zas mám jen DDR3 1600 a PCI EX 2.0... Já jen že jsem čekal, že to projedu a nestalo se což mě udivilo.

Nezabúdam, len nemám dostupnú intelácku "turbo boost frequency table" :D

btw. "problém" z turbom je ten že zaujímavé je len boostovanie ktoré pridáva MHz na všetky jadrá lebo využiť v reálnom hraní/práci na PC len 2-3 či nedajbože 1jadro je totálne nerálne, zvyšné jadrá budú stále niečo systémové na pozadí spracovávať a počítať a maximálny turbo boost prakticky nikdy nedosiahneš.

Ale speť k i5 6500, ono "Max Turbo Frequency je 3,6GHz" ale to bude pre jedno jadro, reálne využiteľný boost pre 4jadrá v (hrách/záťaž) bude 3,3 možno 3,4GHz (3 resp. 6% boost)- presne neviem a ani som to predtým nenapísal pretože som v práci na Win XP a Mozille a toto kombo mi už posledné 2-3 týždne nechce otvoriť Intelácku tabuľku s rozpisom turbo boostu pre i5/i7...

Uznávam že i5 6500 pojde v záťaži na viac než 3,2GHz ale nech to bude aj hneť 3,4GHz tak je to len 6% boost, kdešto FX8320,5 @ 4,6GHZ je 31% boost.

Turbo boost je u Intelu zaujímavý pri i5 6400 kde reálne robí z 2,7GHz ""až"" 3,1GHz na všetky jadrá teda pridáva +15%, či najme u S/T modelov kde napr. z i7 6700T @2,8GHz robí 3,4GHz. Už pekných +21% navšetkých jadrách/vláknach.

Len 100-200MHz/3-6% boost poteší ale v praxi je to ništ.

PS: sám mám v základe 3,5GHz i5 4690 ktorá síce má maximálny boost až 3,9GHz ale v reály - prerábanie videa do mobilu/hry - mi v záťaži drží práve ten garantovaný 4C boost - 3,7GHz, ergo 5,5% boost.

říkám nezkoušel jsem jak by to dopadlo na základních taktech (sem líný nechtělo se mi přenastavovat). Co se týče jeho boostu můžu se pokusit za ním stavit a juknout se jak mu to škáluje jak frekvence tak vytížení jednotlivých jader. Nicméně ještě má dodat výsledky testu další kámoš s FX6300 a R9 280X... tak taky čekám jaké bude mít výsledky. Jde tu o to že je to 4 roky stará sestava s proklínaným (zatracovaným) procesorem + tu máš 32nm vs 14nm a několik generací jak psal tralalák několik steroidů a tak jsem logicky čekal, že to projede ta moje sestava nestalo se tak mě to udivilo... Znovu je k tomu něco k nepochopení? Nenapadám tu Intel nevyzdvihuju AMD... (samo že AMD platí to stáří a vyšší nm taky vyšší spotřebou)

"máš 32nm vs 14nm a několik generací jak psal tralalák několik steroidů a tak jsem logicky čekal, že to projede "

K nepochopeni je to, ze nechapete naprosto elementární fakt, ze v tech sestavach neni problem s CPU, ale GPU. Intel muze mit klidne nejvykonnejsi CPU na svete, s miliardou steroidu a porad to pojede plus minus stejne, protoze to bude brzdit ta GRAFIKA. Je to jednoduche na pochopeni. Opravdu je. Pro takove I5 je v podstate brzda i GTX 970.

mám Ti znovu napsat co jsem již psal nebo si to přečteš?

Neni treba – evidentne ty nechapes vubec nic.

tak se nauč číst už sem to tu psal ;-)

Kochren,

to čo ja,tralalák, sidey ani Killing joke nechápeme je prečo si si myslel že by si mal dostať od kamaráta na ROVNAKEJ GRAFIKE (panebože rovnaká GPU !) nakladačku V TESTE GRAFIKY kde je vpliv CPU v rádoch jednotiek percent (a to ty máš naviac "8"jadro@4,6GHz a kamoš "len" 4jadro@3,2-3,4GHz),reps. sa dá pozrieť len GPU Score...
A zbernica či RAM vplyv nemá - a nesnaž sa nám nahovoriť že si to doteraz nevedel.

no světe div se já to psal trošku níže právě mi dodal kamarád výsledky testů má stejnou grafiku jako on 280X ale má jiný procesor a má jiný výsledky... a co teď? Úžas? snad ani ne ;-) Zamotáváte se do toho a protiřečíte si... Stejně nechápu proč ste se tak rozohnili když sem to tu dal jen jako zajímavost ty výsledky nikoho žádného výrobce ani nenapadám ani nevyzdvihuju ale Tak Ty a Tvůj kolega ste opět nezklmali :-D

áno my zme nesklamali, ale ani ty takže po argumntácii prechádzaš k osobným útokom. Ale tak poznáme sa že ano...

btw. no tak dodaj tie výsledky, sme na ne zvedavý, obzvlášť na to GPU Skore, o koľko je horšie než s i5/FX@4,6GHz :D

Osobní útoky? kde prosí Tě já Ti nadával nebo něco podobného? :-D Ale ano dyť s Tebou to furt to samé... Jinak tak ten výsledek měl 6887 s FX procesorem oproti tomu měl kolega Killing joke se stejnou grafikou 7784 viz http://www.3dmark.com/fs/3559672. Už jsem to tu psal i jinde ale tohle se tak rozvětvilo, že je to už hnus... Nic Kašlu na to Ano máte pravdu CPU nemá vliv nebudu Vám již odporovat pánové máte ve všem pravdu... Vivat vítězům čest poraženým :-) kašlu na to nemá to cenu :-)

ale zbytočná debata, 4 ľudia ti opnujú ale samozrejme sa mýlia a len ty máš pravdu.

Zdernica ani RAM vplyv nemajú, CPU máš s 2x počtom jadier na o 1,2 až 1,4GHz vyššej frekvecnii než i5 6500 ale ty si čakal že od kamoša NA ROVNAKEJ GRAFIKE dostaneš nakladaču čo sa nestalo a teraz si zamozrejme strašne prekvapený :D

Končím. Píš čo chceš, bolo povedané dosť.

neodpustím si poslední rýpnutí kde máš ty 4 lidi? :-D jstre tu hlavně Ty a Sidey... krásný den ;-)

Marne hledam ten "stařičký počítač", to je ten s tím FX-8320? WTF?

tak jsou tam 2 starší a ano cca4 roky starý počítač už fakt není nový ;-)

Nikdo tu neresi, zdali je novy nebo neni. To, co mate vy, není "stařičký počítač". Stařičký počítač je tak nějaké Core2Duo a podobně.

:-D chceš si hrát na slovíčkaření? :-D asi bych řek, že pro každého je ta pomyslná úroveň stařičký jinde :-) Musel bych dohledat jak dlouho už to mám ten počítač je možná i starší ale došly Ti argumenty že se opíráš do takové prkotiny, jako je označení stařičký? :-D

A dost tohle je můj poslední příspěvek na téma co je či není stařičký počítač protože tohle je fakt o ničem...

@Kochren, vážne a bez rýpania,

vysvetlíš my prečo si si myslel že by si mal dostať v teste grafiky náklep keď kamarát má "totožnou grafikou" (!) ???

...veď už bolo asi 246x preukázané že PCI 3.0 či DDR4 RAMky predstavujú pre PCI grafiky 0,0005% výhodu...

To jsem popravdě také nepochopil. V obou sestavách je brzdou herního výkonu jednoznačně GPU, nikoliv CPU.

Tak všude hlavně na PCT se uvádělo a uvádí jak jsou FX procesory otřesné a že to neutáhne výkonné grafiky a to se říkalo už za časů 7970... (tehdy to byla hiend karta) Stále Vám to nedochází? Tak si poposedněte :-)

Ale vy jste to v zadne hre netestoval, omg. Jen v přiblblém benchmarku. Poposednete si sam.

FX ale jsou otřsný, jenomže je třeba pochopit, že Fire Strike je za prvý benchamrk (nikoliv hra) a za druhý je to hlavně o grafice.
Jak jsem posílal i5-3570K + R9 280X:

http://www.3dmark.com/fs/3559672

Score - 7784, GPU - 9258, CPU - 8096

Když se tam mrskne přetaktovaný i7-3770K:

http://www.3dmark.com/fs/4102518

Score - 8041, GPU - 9066, CPU - 12216

CPU část značně narostla, ale celkový score velký prd.

No a jak se tam plácne GTX 970, tak to je teprve nárůst:

http://www.3dmark.com/fs/5836116

Score - 11257, GPU - 13345, CPU - 12060

Takže i kdyby tam bylo i5 na 4,6GHz, tak by to celkový score bylo podobný.

Ano to nepopírám ani nic nenamítám. Vím moc dobře, že Intel je na tom mnohem lépe proto jsem čekal, že dopadnu hůře o nic tu jiného nejde :-) Jinak jsi perfektně právě popřel řeči sideyho :-) Že nechápeme že tu je brzdou GPU... Evidentně není použiješ li větší výkon CPU zvedne se celkově skóre :-D a to nejen u CPU...

Tak ještě jednou, u 3DMarku se tohle čekát nedá, je to primárně o grafice.
Brzdou samozřejmě GPU je, jelikož CPU score naroste o 34% a celkový score jen o 3,2%.
Kdežto když se zvýší gpu score o 32%, tak vzroste celkový score o 29%.
Z tohohle ti přijde že záleží na procesoru?

/// Teda samozřejmě záleží, ale naprosto minimálně a nemá cenu to brát v potaz.

v jednom z tech testu se pocita fyzika je to tak? a pak je tam jeden kombinovany. proč asi mluvím i o CPU? a i zde záleží i na CPU právě mi dodal kamarád jak dopadly testy jemu má stejnou grafiku jak Ty, ale jiné CPU přesněji FX6300 podle Vaší logiky jak to že nemá podobný výkon?

GPU JE V TOM BENCHMARKU BRZDA. NE CPU. PROTO JSOU VYSLEDKY, SE STEJNOU GRAFIKOU, PODOBNE.

POCHOP TO UZ PROBOHA.

Ty fakt umíš číst nebo ne? už o tom začínám pochybovat... Co jsem tam právě napsal na co Ty reaguješ??? Přečti si to a znovu zreaguj... Tohle snad už není normální a dočti to do konce třeba se pak chytneš za nos...

Pomůžu Ti je tan napsáno toto "právě mi dodal kamarád jak dopadly testy jemu má stejnou grafiku jak Ty, ale jiné CPU přesněji FX6300 podle Vaší logiky jak to že nemá podobný výkon?" jinak kdybys chtěl vědět jaký výkon měl tak je to 6887... ale jasně žádný vliv CPU... jako já už nevím co si mám o tomhle myslet... Ale čekal jsem že se do mě zas pustí Matko a další protože jsem tu postnul něco kde AMD nedopadlo doslova katastroficky... Jste furt stejní čekám že později odpoledne se přidaj další... Aby Vám to došlo Já nevyzdvihuju AMD ani neponižuju Intel tohle byla jen zajímavost... Je zajímavé, že jinde se do mě takhle nikdo nepustil... tak na PCT bych asi dopad ještě hůř... Jinak sem si v klidu o tom popovídal s člobrďou co je zastáncem intelu a Nvidie (jeho sestava je tak nějak úplně mimo většinu lidí) prostě mašina. Přesto nepředved to co Vy tady.

To nebude tím, že píšeš cokoliv o AMD nebo Nvidii. Je to tím, že napíšeš nesmysl, který pak dále rozpitváváš, aby jsi vysvětlil, jak jsi to tedy myslel a že to tedy vlastně není nesmysl. Jenže ve skutečnosti, kdyby jsi si po sobě pořádně četl, co píšeš, tak by jsme ušetřili čas, nervy a google by kvůli tobě nemusel pořizovat další serverovou smečku.

Ale díky tomu, že je tvoje ego tak velký, že si nedokážeš připustit, že bys mohl být jako my všichni ostatní, a občas holt udělat chybu, tak je tady totální off topic. Takže díky za 30 příspěvků, které s článkem nemají nic společného.

Ale EHW má kliky, google novou smečku a ty pocit, že jsi jediný, kdo je v tomhle světě normální, dál jsi ukázel, že je s tebou jakákoliv debata nesmyslná, protože zaprvé neumíš pořádně napsat co chceš sdělit a za druhé nečteš co ti píšou ostatní. Takže všechno je vlastně ok...

moje ego? děláš si srandu?
Až tady přestanou tvrdit nesmysly a že ty nesmysly dokazují i testy tak se s nimi přestanu přít. Mohli sem dát testy a výsledky které by dokazovaly moji nepravdu a pak bych ji uznal... Ale já si narozdíl od kecalů udělal další testy kde sem ten procesor nataktoval na základní takty a i podtaktoval a ejhle ono to je závislé i na tom CPU. Takže pokud mi chceš něco vyčítat tak si to sám zkontroluj... toť vše...

Sidey ses tezce mimo. 3D Mark je na CPU dost silne zavislej a muze dost ovlivnit celkovy skore...

Je videt ze tomu vubec ale vubec nerozumis

Má stejný gpu score? Pokud ne, nemá stejnou grafiku (stejnej takt).

S kombinovanym testem sis naběhnul, tam je totiž ten rozídl díky procesoru vůbec nejmenší.
Ale těch doslova pár procent je pro tebe asi hodně.
No a s fyzikou (cpu) jsem to už psal... CPU score naroste o 34% a celkový score jen o 3,2%...

to je podle tebe důkaz toho, že záleží na procesoru? Score naroste o x a celkový jen o x/10, to bych neviděl jako, že na cpu moc záleží.

/// Stejný celkový score mu samozřejmě nevyjde, ale velmi podobný určitě ano.
Pokud ne, tak má pomalejší/rychlejší grafiku. Proto by mě zajímalo jaký mu vyšlo gpu score.

zopakuju aby skončily hádky udělejte si ten test sami na základních taktech pak CPU přetaktujte udělejte test pak podtaktujte a udělejte test aby ste se sami podívali zda to má či nemá vliv... zbytek se už odmítám na toto téma bavit zkuste si to sami tak jak sem to udělal ja.

Taky zopakuju (už po třetí), moje výsledky jsou holt jiný než tvoje.
Znamená to automaicky, že tvoje jsou správný? Já si totiž zase stojim za svejma.

Ještě jsem zkoušel ty samý testy s FX-8300 a GTX 970 s R9 270.
Potvrdilo se to samý - celkovej rozdíl po výměně grafiky vysokej (gpu score taky vysokej rozdíl) a rozdíl cpu score u FX-8300 (4 vs 5GHz) s R9 270 a GTX 970 je taky velkej, ovšem celkový score je velmi podobný.

Možná bys měl zajít na diskuse v CZC a budeš tam mít kamaráda stratose, kterej tvrdí to samý. Bezesporu se shodnete ve více věcech.

Tak je sem bez kecání hoď vřera mi ty moje potvrdil kámoš co nataktoval svůj I7 procesor... výsledek testů je závislý na výkonu procesoru... Kecy mistra sidey, že grafika brzdí procesor jsou fak až tragikomický... A nikam chodit nemusím... Já na CZC max nakupuju... Říkám změř to na základních taktech,pak pžetaktuj, pak podtaktuj a hoď to tu jsem vážně zvědavý protože včera se tomu co tu píšete těžce smál kamarád s I7 a 980Ti a ne není to Jan Belka... To Vaše slaboduché kádrování pokud někdo nesdílí Vaši mantru je fakt tragikomické...
PS: to co říkám já sdílejí i další známí, kteří se už několik let pohybují v ICT a živí se ICT... Kdyby tu napsal bývalý kolega to co říká tak asi někteří jedinci chytí infarkt... Jenže má pravdu v tom že jemu to nestojí za to se jakkoli otravovat a přít...

Možná do třetice se naučíš číst:

i5-3570K + R9 280X:

http://www.3dmark.com/fs/3559672

Score - 7784, GPU - 9258, CPU - 8096

Když se tam mrskne přetaktovaný i7-3770K:

http://www.3dmark.com/fs/4102518

Score - 8041, GPU - 9066, CPU - 12216

CPU část značně narostla, ale celkový score velký prd.

No a jak se tam plácne GTX 970, tak to je teprve nárůst:

http://www.3dmark.com/fs/5836116

Score - 11257, GPU - 13345, CPU - 12060

Brzdou samozřejmě GPU je, jelikož CPU score naroste o 34% a celkový score jen o 3,2%.
Kdežto když se zvýší gpu score o 32%, tak vzroste celkový score o 29%.
Z tohohle ti přijde že záleží na procesoru?

Asi máte s tvejma kamaráda jiný benchmarky než všichni ostatní...vlastně i stratos má výsledky jako já.

Nesmyl co tady celou dobu meleš (že závisí na cpu) by platil leda kdyby se srovnávalo něco hodně slabýho a hodně silnýho.

A radši ještě jednou, na cpu závisí, ale vlemi málo, takže spíše ne.
CPU score zvýšený o 34%, clekově o 3,2%. GPU score zvýšený o 32%, celkový o 29%.
29 > 3,2.

napsat si umím cokoli to za
1. říkám hoď sem výsledky ne písmo
2. o kolik jsi zvedl CPU?
a Score - 7784, GPU - 9258, CPU - 8096 vs Score - 8041, GPU - 9066, CPU - 12216 není rozdíl??? Děláš si srandu???? A že výkonnější grafika dá vyšší výkon je snad ligické ne? Sám teď popíráš sám sebe... nebo s Ti to nezdá??? Když procesor nataktuješ podtaktuješ nebo necháš tak tak tam jsou rozdíly to je to co píšu a Ty to tu postneš a ještě se chceš přít.... Nechápu...
3. ano každá grafika má své limity ale jejich výkon určuješ i výkonem CPU sám si to tu dokzal... i když jen písmem... Jako ty bys čekl že 750Ti bude mít výkon jako 980Ti? Bavíme se v rámci jedné grafiky neporovnávám grafiky... Jako to cos tu napsal je fakt úžasné... Tak jen tak o čem se tu píše a to je, že Grafiku ovlivňuje i výkon CPU tvrdit opak je nesmysl...
Nepochopil jsem Tvoji logiku jak porovnáváš grafiky i když se bavíme o CPU... fakt maras tohle jestli ž má grafika vyšší výkon tak je jasné že to v testu dá více bodů...
Věcí sporuje že CPU má vliv na výsledek 3D marku a ne že nemá... Bylo tu tvrzeno že ten test je GPU only a CPU na to nemá vliv a to je nesmysl....

Já o voze ty o koze.
Bavim se o celkovym score (celou dobu) a ty pořád meleš o tom jak moc to ovlivní procesor.

Tak možná čtvrtej pokus pomůže?

i5 vs i7

http://www.3dmark.com/fs/3559672
http://www.3dmark.com/fs/4102518

CPU score naroste o 34% a celkový score jen o 3,2%.
GPU score naroste o 32%, a celkový score o 29%.
Znamená to že hodně záleží na procesoru?

Samozřejmě ty 3,2% jsou taky do značný míry ovlivněný tim, že vyšlo jiný GPU score se stejnou grafikou. Tohle by mělo jít potlačit vypnutím všech programů a odpojením od internetu. Benchmarky bohužel zas tolik neřešim.

Když je jasný že lepší grafika dá více bodů, tak proč není jasný, že procesor dá (proti tomu kolik dá grafika bodů) velký prd, a tudíž na něm nezáleží.
Samozřejmě kdyby se to testovalo s Pentiem a i7, tak tam bezesporu bude více než 3,2%.
Ale kdo by k nějaký lepší grafice měl Pentium.

přečti si o čem je a o čem začal tento spor... byli tu jedinci co tvrdili, že je jedno jaký mám CPU že tohle je GPU only test.... V rámci 1 grafiky má stejný procesor a jeho výkon vliv na výkon skore v 3D marku... Chceš tohle popřít? Vzniklo to kvůli tomu, že někteří se naježili když test se stejnými grafikami a nedopadl debaklem stařičkého AMD procesoru... Nikde sem netvrdil ani netvrdím, že by že tyhle procesory jsou dobré nebo snad lepší jak Intelácké I5 a výše... Tvrdím však že jsou lepší jak I3 kdy nyní tyhle proesory mají stejnou cenu. Ten test tu byl dán jn jako zajímavost netušil jsem že z toho někteří budou mít snad pomalu infarkt... Zopakuju co jsem psal vem si 1 grafiku jeden procesor a ten samý procesor Přetaktuj a podtaktuj a nedojdeš ke stejnému výsledku... nemůžeš je to nesmysl...

No začal jsi dobře:

"Říkal jsem si o kolik dostanu náklep... Co se stalo mi však vyrazilo dech, protože já náklep nedotsal..."

Já bych nebyl zaskočenej, protože vim, že máte stejnou grafiku a celkový score nestojí na procesoru.
Ty to teda pořád nechápeš, i když jsi to sám dokázal v úplně prvním příspěvku?

Že je FX lepší než i3 je hezký, ale drtivá věšina testů her tvrdí opak.
Pokud netvrděj opak, je dobrý nekoukat jen na průměrný fps, ale taky na minimální nebo nejlépe na průběh fps, kde FX často pokulhává.
Navíc k FX je optimální mít lepší (dražší) desku než k i3 a ještě taky extra chladič, takže je FX dražší.

Stejnej výsledek samozřejmě nebude, to je nesmysl. Ale bude natolik podobnej, že bude skoro stejnej.
Tak možná na pátej pokus: i5 vs i7 - CPU score naroste o 34% a celkový score jen o 3,2% --> na procesoru záleží tak málo, že na něm spíš nezáleží.
Nebo to pochopíš až když to otestuju znova na i7 s vypnutym HT?

nemluvím o hrách myslím celkově jakmile budeš mít 2 monitory puštěných několik aplikací tak to poznáš... Opět mluvím z vlastních zkušeností... Ne z domova ale z práce... Počkej Tys tu dal výsledky kde přetaktovaný procesor dal vyšší výkon včera si to pročítal kamarád a po přetaktování měl vyšší skore jak můžeš tvrdit, že nemá vliv??? Takže to že stejná grafika s jiným procesorem nebo stejná grafika s tím samým procesorem na rozdílných taktech dává rozdílný výkon je vlastně chyba měření je to tak? i když ten výsledek je v řádu 100vek...
No nevím ale stačí desky od 1800 do 2300 bez potíží... nevím jak drahší potřebuješ... Chladič základní snad nepoužívá nikdo je to děs...
Věř tomu nebo ne ale jakmile ten procák sestřelím na základ tak to jde poznat... To samé když vemeš tu I5tku a přetaktuješ ji tak to bude rozdíl tedy pokud pujde a o kolik... Tady je to o 1,1 vyšší jak základ.... 3,5 vs 4,6... S tím škatulkováním a kádrováním jste fakt směšní... Otázka je taky což nevím jestli ten HT má vliv na výkon v tom testu na jakém taktu máš tu I5 a Tu I7??? na stejném nebo shodném?

Tak na hry je lepší Intel. Na multimédia to jde přes mnohem rychlejší grafiku.
Takže AMD leda když to nejde přes grafiku, je potřeba hrubá síla a není moc peněz.
Na dva monitory a několik aplikací bych vzal i7. Jinak teda když jde o něco víc než hry a Facebbok, tak má určitě většina lidí i7.

Možná teda šestej pokus ti otevře oči...i5 vs i7 se stejnou grafikou je rozdíl 3,2% a i u tebe máte oba R9 380X a je tam i5 vs FX, celkovej rozdíl je dosti malej.
Tobě rozdíl 3,2%, přijde jako odpovídající číslo pro i5 vs i7?
Přijde ti 3,2% jako tak velký číslo, že má smysl tvrdit jak hrozně moc ve 3DMarku záleží na procesoru?
Takt je tam jinej, aby byl rozdíl mezi i5 a i7 ještě vyšší. Však je tam ten takt vidět.
HT má samozřejmě vliv, ale jak snad někdy pochopíš, minimální, protože primárně je to o grafice.

Nebo je to zase koza a vůz a já se bavim o celkovym a ty o CPU score?
Jak jsem psal, udělej test 2x na identický sestavě a taky bude rozdíl klidně pár stovek bodů, to je ta chyba měření.

tak znovu co jsem psal? můžeš říct jaká I7 a jaká I5 na jakých taktech? a asi taky nevnímáš čet si co jsem psal o procesoru ? tohle FX bylo přetočeno o 1,1 tys zoho taky docílil na I5? Je hloupost říct že CPU nemá vliv na skore... A ano já vo voze Ty o koze nepsal jsem náhodou ve stejné cenové relaci, že je FXko výhodnější jak I3? psal viď? I7 asi za cenu I3 nekoupíš což? Hry... no pokud je hra 1vláknová ano má navrch I3 souhlas... U I5 je to jasné tam není o čem diskutovat... Ale neříkejte mi, že CPU nemá vliv na výsledek testu. Jak to, že pak ta samá grafika dopadne o přes1000 bodů huře na FX6300 než na I5??? Asi to bude tím procesorem že?... A já jak slezu o 1,1 z 4,6 na 3,5 tak tam mám taky markantní rozdíl... Takže asi zas to bude tím procesorem ne? kolik stovek bodů je vlastně u Tebe chybička měření???? Pak jsou tedy benchmarky úplne na hovno když jsou chybové že?
PS: Ty procesory co tu uvádíš mají prakticky stejné takty je to tak? Proč jsi neudělal to co jsem říkal že bys sebral jeden procesor a přetaktoval ho a následně podtaktoval? Protože by se Ti ty výsledky nehodily??? Zjednodušeně řečeno tahle I7 má taky jen 4 jádra... HT není jádro přínos je velmi malý mnohdy zanedbatelný... Jak sem psal nevím zda tento test vůbec umí využít HT... Ty tu porovnáváš 2 procesory co maj 4 jádra na prakticky totožné frekvenci... I7 má jen o 100MHz výš... Znovu velmi zjednodušeně srovnáváš stejné procesory a rozdílem 100MHz... (pomíjím teď velikost cache a HT) Vem si třeba tu I5 hoď ji na 4,6 a pak ji dej na 3,5 a pak klidně ješte na 2000 a pak mi napiš jestli tam jsou rozdíly ve score nebo nejsou...

Umíš si rozklinkout detaily testů nebo je to moc těžkej úkon?
Jak jsem psal, frekvence tam je.

Na i5 jsem docílil dokonce přetočení o víc než 1,1GHz a se spotřebou o který se FX může zdát.

CPU samozřejmě má vliv na score, ale když dá i5 na nižší frekvenci jen o 3,2% nižší výkon než i7 na vyšší frekvenci, tak to asi na procesoru moc nezáleží ne?

A ono FX a i3 není stejná cenová relace? Ano, není, FX je dražší, s prasodeskou s pár skučícíma fázičkama a bez chlazení napájení jsou podobně drahý to je pravda.
Taky z i3 se dá upgradovat z FX se dá leda omílat potenciál více jader.

Jak už tady někdo psal, ty máš pravdu, my všichni se mýlíme, takže se omlouvám, uznávám tvoje měření jako ty správný a měj se.

PS: Pokud nevíš jestli test umí využít HT, tak se po sedmý podívej na ty odkazy.
CPU score je 8096 vs 12216.

chceš si honit triko? Ano souhlasím a dobře vím, že FX procesory nejsou nejlepší ano vím že mnohem více papaj :-) spokojenej? mas pohlazenou dusicku? :-) Nikde sem nepsal opak ale to je jedno... pořád tu házíš I5 vs I7 a jestli jsi čet tak jsem psal, že v základu je rozdíl ve frekvenci 100MHz :-) Udělej to co jsem říkal přetoč ten procesor udělej testr pak ho udělej na základu a pak ho podtaktuj a dej tu ty výsledky pořád píšu to samé... Je to tak težké pochopit??? co máš udělat? Udělej to a dej tu výsledky a uvidíš že tam bude rozdíl... Tyx tu pořád omíláš I5 a I7 naq prakticky stejné frekvenci... Tak jestli mě chceš umlčet že se mýlím tak to udělej přetaktuj podtaktuj a nech na základu... Rozdíl tam je a ne že CPU nemá vliv na výsledek má sám si tu tu ukázal už jen tím Cos tu napsal... otázka znovu zní kolik bodů je u Tebe chyba měření... Nevím o čem se hádáš a stále argumentuješ těmi dvěmi procesory ale stále jsi nevyvrátil to co píšu... Přetaktuj podtaktuj nech základ změř a dej to tu jak to bude stejné taqk uznám že jsme se mýlil... Já to udělal kamarád taky a stejné to není... A když už chceš kádrovat tak si zajdiu třeba na tu zapovězenou stránku a tam se podívej s kým si píšu a s kým mám stejné a podobné názory... Není to DD ale je to Machina (který dělá šefika kolektivu Java programátorů) a je to Shadow R.O.G. (který má Intel Core i7-5960X a GTX 980Ti mám dojem tuto ASUS MATRIX-GTX980TI). Ale ano klidně si mě zaškatulkujte jako DDrona a Belkaře či jako AMD fanatika :) Jo ať máte radost :-) Mě to žíly netrhá ;-) a jak sem už psal ani mě to neživí tyhle povídačky :-) PS: neuvěříš ten Shadow R.O.G. si to zkoušel a pak mi posílal o kolik mu to stouplo to jsou věci Viď... Ale klid ať vám nestoupne tlak pánové :-) Tohle nemá smysl tahle debata Ty odmítáš udělat to o čem tu diskutujem a neustále omíláš ty 2 procesory... ale závěrem i Tys dokázal, že ten test není GPU only a to už u procesorů co maj oba Reported stock core clock 4 000 MHz já se na ty údaje díval neboj :-) Nezbývá než popřát krásný den a jít se věnovat důležitějším věcem :-) A ano I3 a FX nejsou ve stejné cenové relaci??? nepovídej :-) http://www.czc.cz/procesory/produkty#q-c-0-price=r757-4500

Já si honit triko nepotřebuju, jenom nemam rád když někdo vychvaluje prehistorický FX.
Samozřejmě kdybych neměl Intel "K", tak mam taky FX, protože potřebuju něco ladit a nastavovat.

Když si nedáš pokoj, tak možná pomůže tohle (rozdíl 1GHz na i7-3770K):

http://www.3dmark.com/fs/7252797
http://www.3dmark.com/fs/7246767

Tak snad už naposled...rozdíl CPU score je 20% a rozdíl celkovýho score je 472 bodů (tj necelejch 5%).Znamená to, že záleží na procesoru?
Ano, záleží, ale minimálně. Protože když se zvýší GPU score o 32%, tak se zvýší celkový score o 29%.

Když pustim test několikrát s identickejma frekvencema všeho možnýho, tak bejvá často rozdíl v celkovym score i přes 100 bodů, proto bych nehrotil malý rozdíly. A ano, 472 bodů není těch pár set, ale víc, nicméně vzhledem k celkovýmu score je to pořád jen necelejch 5%.
Score programu na měření výkonu cpu bude krásně škálovat s frekvencí, tady znamená 1GHz necelejch 5%, proto je prostě nesmysl tvrdit že záleží na procesoru. Smysl má tvrdit že pár procent celkovýho score záleží na procesoru nebo že velmi málo záleží na procesoru.

Taky asi nebudeš věřit, ale plno lidí má stejný výsledky jako já. Tak ty máš dva kamrádíčky, já jich pár mam taky. To jenom dokazuje to, že 3DMark není úplně nejlepší benchmark, když nám to vychází různě.

FX a i3 jsou ve stejné cenové relaci, ale FX bude mučit desku a chladič řvát jako prase na porážce.
Pokud chci mít FX stejně v pohodě jako i3 je potřeba lepší deska a chladič.

no a ještě k těm hrám jak sme do google zadal FX vs I3 vyskočilo mi toto (já ty testy nedělal neručím za ně A je jasné, že I3 m á lepší provozní vlastnosti... ale připočti si k té hře na druhém monitoru spuštěné další aplikace a I3 dojde rychleji dech vím jak v práci... Doma I3 nemám)
https://youtu.be/UEIRYS0xMZk
https://youtu.be/TCRVs0EA5lA

No tak i3 na nějakou jinou práci než Facebook a nenáročný hraní asi nikdo kupovat nebude.
Ale na náročnou práci maj zase všichni i7/Xeon.

Já nemít moc peněz a převádět videa jak mourovatej (bez možnosti gpu akcelerace), tak je FX-8xxx jasnou volbou. Jenomže já nějak extra nehraju, mam rád malou spotřebu (co nejmíň tepla vycházejícího ze skříně) a hrubou sílu nepotřebuju. Proto mam i7-3770K za 4,2k z bazaru, jde dokonce na 4,8GHz a 4,5GHz dá na 1,21V což je (pro mě) krása.

FX vs i3 se řeší všude a pořád, testů je plno a ano, není to tim, že je FX špatný, ale tim jak jsou hry dělaný, nicméně to si taky můžu koupit 256GB RAM a stěžovat si, že to hry nevyužijou (ty si nestěžuješ, ale plno lidí pořád ano) a čekat až to budou využívat a mít eso v rukávu stejně jako má FX eso v podobě x jader.

http://www.techspot.com/review/917-far-cry-4-benchmarks/page5.html
http://www.techspot.com/review/1089-fallout-4-benchmarks/page5.html
http://www.techspot.com/review/1022-batman-arkham-knight-benchmarks/page...
http://www.techspot.com/review/979-battlefield-hardline-benchmarks/page5...
http://www.techspot.com/review/962-evolve-benchmarks/page5.html
http://www.techspot.com/review/827-watch-dogs-benchmarks/page5.html

FX samozřejmě pomůže taktování, jenomže to bych si já prostě na levný desce (5 fáziček) nedovolil a chtěl bych pořádnej základ. Potom je FX dražší. A nebo pak rovnou můžu mít zdroj Eurocase, Redstar apod k tomu levnou skříň...taky to funguje.

Na CZC ohledne rady pro grafiku nema cenu vubec chodit. Je to tam zelene jako brcal s nadhledem deti ze skolky, kteri se bavi ci tatinek je lepsi :-)) Jejich argument je vzdycky, ze Nvidia ma lepsi provozni vlastnosti a s tim tam ta jejich grupa snazi udupat kazdeho kdo ma jiny nazor ..

Nikdy nemá cenu chodit jen na jedno místo...

To je taky pravda :-)

Ale houby poprel. To ty si STOJIS NA VEDENI.

POPOSEDNI.

Ty jsi fakt stojis na vedeni.

- dal tam vyrazne rychlejsi CPU a celkove skore narostlo o 4 %.
- Dal tam vyrazne rychlejsi grafiku, skore narostlo o 45 %.

Ale vidim, ze to nepochopis, ani kdyby te pravda fackovala. Komu neni dano, tomu neni pomoci.

A to jsem si myslel jak díky těm procentům procitne :(

"Vím moc dobře, že Intel je na tom mnohem lépe proto jsem čekal, že dopadnu hůře o nic tu jiného nejde "

Uz asi popadesate ti vysvetlujeme elementarni fakt, ze TO NENI VEC CPU. Jinak receno, to, co jsi ocekaval, jsi ocekaval uplne mylne, protoze nechapes, ze v grafickem benchmarku zalezi nejvic na GRAFICE, nikoliv uz na CPU (a to nemluve o tom, ze ta GPU je brzdou CPU).

Nechapu, jak nekdo muze cekat, ze v grafickem benchmarku, zamerenem na rychlost grafiky, muze cekat, ze sestava s Intelem dopadne vyrazne lip. To je naproste nepochopeni problematiky.

opet ti opakuji nesir tu bludy. 3D MARK je na CPU zavislej celkem dost a dokaze to dost ovlivnit celkovy skore... Uz blbej XEON 1231v3 dokaze dost skorem zamichat s identickou grafikou vsak se mrkni sem:

https://www.facebook.com/HWrecenze/photos/pcb.421625238041006/4216239247...

Pekné to máš, ta karta je super, len to CPU ta zrejme taha dole :(
Aspon vidieť rozdiel u "skoro" 8jadra AMD vs INTEL

http://www.3dmark.com/3dm/9783338 - i7 Xeon

A toto bolo moje skore na i5, inač všetko identicke.

http://www.3dmark.com/3dm/9623812 - i5

Ty počítače regulérně brzdí grafika, viz můj starý test s mym Phenomem...

http://www.3dmark.com/fs/3171716

Myslim, ze zajimava je jeste jedna vec na tom. Ze pokud je engine (aspon pro fyziku) napsany dobre, ze scaluje dobre s vice jadry (coz tenhle benchmark dela), i starsi procesory nemaji problem.

Tak ted nevim no. Testy krasne, prehledne, vystizne ale porad nevim jestli ma vyznam koupit GTX 960 nebo R9 380X. Rozdil v FPS je +18% pro R9 380X ale spotreba je o -34% ve prospech GTX 960 4GB.

Ono otázka zní jak moc se Ti ten cca 60W rozdíl prodraží v roční spotřebě. Nebo zda potřebuješ vyšší výkon. POdle mě i mých zkušeností dojde 960tce rychleji dech s příchodem novějších her. Čili taky je tu otázka na jak dlouho tu kartu plánuješ.
Vzhledem k tomu, že ten rozdíl je v roční spotřebě zanedbatelný (nesedím u toho paření 24hodin denně) a plánuju kartu tak na 3 roky tak jsem šel do R9 380X a jsem spokojený. Jinak obě karty jsou dobré. Fakt záleží na co jsem psal.

No tak abych rekl pravdu tak budu hrat tak 2-3 hodky ale ne kazdy den na to cas nemam takze bych to videl ze budu hrat tak 3 dny v tydnu. Podle toho co si napsal a podle tvych zkusenosti vychazi nejlepe R9 380X. GTX 960 vypada jako dobra karta ale tech 18% navic bude asi ku prospechu v nasledujicich hrach. Kartzu planuju tak na 2 roky mozna min mozna dyl ted fakt nevim uvidi se jak to bude s dalsi generaci grafik od obou spolecnosti a jestli bude mit vyznam koupit novou treba za rok a prejit z FULL HD na nove treba 2K monitory.

Je velka skoda ze MSI nema R9 380X do pruhledne bocnice by to byl pekny kousek narozdil od GIGABYTE ta je z boku kde je napis WINDFORCE takova divna nekryta a je moc videt ten hnusny chladic ale to je jen detail :-)

Ty mas tu R9 380X od GIGABYTE ze?? A nemas vysledky rozdilu ve hrach v zakladu tim myslim 980MHz/5700MHz a treba pretaktovani jako ma SAPPHIRE 1040MHz/6000MHz. A nebylo nejak limitni to ze GAGABYTE ma jen 1x8PIN a ostatni maji 2x6PIN?

Kdyz to tak pocitam tak aj kdyby byl rozdil WATTu GTX 960 vs. R9 380X 100W tak pri hrani 2 hodky kazdy den a pri cene 1KW 5Kc tak je to rozdil cca 31Kc navic mesicne s pouzitim R9 380X. A to neni zas tak zavratna castka kdyz veme ze ta katra ma o cca 3-40% vetsi vykon v jednotlivych hrach teda aspon podle toho co sem vycetl z grafu v teto recenzi

Taky jsem se bál co udělá to rozdílný napájení, ale jede to v pohodě. Bez zvyšování napětí to jede stabilně na 1070/6500. Ten rozdíl je přůměrně těch 60W a 100W bývá jen vyjímka když se podíváš na předchozí testy tak tam byly trošku jiné hodnoty a průměrný rozdíl ve spotřebě 60W. Co se týče toho, že je škoda že zatím není MSI tak máš pravdu no...

viz: http://www.cnews.cz/recenze/r9-380x-nitro-od-sapphire-antigua-xt-alias-p...

Co se týče menšího hraní s taktováním tak to už jsem tu taky dával (testy sem udělal hned po zapojení a jen tak jsem skákal po taktech co to udělá, ale většina testu je v základu až na fire strike jsem zkoušel): https://onedrive.live.com/?authkey=%21ABYMmg41LB5hesE&id=52FCAC66F167998...

Kladech si úplně špatné otázky. 60W ve financích nikdo neřeší. Správná otázka je, co to udělá s teplotami ve skřini, jak moc silnější zdroj bude potřebovat a jak moc bude hlučnější.

sorry ale tohle je taky špatná otázka protože mi ta karta jede mnohdy tak, že se ventilátory netočí (samo že né když hraju). Ale 60W? to odfoukneš jak nic krom toho už sem si tu s někým psal že to není jak 60W žárovka... Čili to neznamená automaticky že 60W ve spotřebě se rovná 60W tepla či že bys to přirovnal k žárovce... ten rozdíl v teplotě nepoznáš tohle není R9 390X... a zdroj? Počítám, že má 400+ zdroj takže tohle bych neřešil... já mám 500W zdroj už několik let a pohoda...

"krom toho už sem si tu s někým psal že to není jak 60W žárovka..."
Není, protože žárovka kromě tepla vyzařuje i světlo(8-20%?), takže 60W na GPU topí více než 60W žárovka.

"Čili to neznamená automaticky že 60W ve spotřebě se rovná 60W tepla"
A kampak se ta energie poděje, když se nepřemění na teplo?

To už jsme řešili tady s podobnym (akorát slavnějšim) zabedněncem:

http://www.czc.cz/asrock-980de3-u3s3-amd-760g/134777/produkt/4aa0ercg7qg...

"Nebo, že by magicky konvertovaly ty karty watty na duhu s jednorožcema místo výdeje tepla? "

Pěkná diskuze a duha je super:-)

tam neslo o vyzarene teplo ale o teploty.
SLo o to ze treba MSI dokaze u R9 390 8GB diky vybornemu chlazeni zchladit kartu na 70°C i pri malem toku vzduchu skrze zebra chladice a neni potreba zadny extremni airflow.

Pokud bys mel stejnou grafiku treba na referencnim chladici tak by se hrala klidne o 30°C vice, musela by daleko vice "funet" a byla by hlucna. Takze ono to neni jenom o TDP karty ale take o volbe chlazeni.. A na to hodne lidi zapomina kdyz pisou o kartach typu MSI R9 390 8GB ze to je topeni apod.. Pritom tu kartu v zivote nemeli v ruce. To same R9 380 4GB od Sapphire v NITRO edici. Karta jede v IDLE pasivne a pri BURNU je krasne ticha a hreje kolem 70°C..

Bohuzel v te diskuzi se lide "zamerne" stale snazili odvadet tema diskuze na uplne jinou kolej coz osobne nechapu o tohle vubec ale vubec neslo. Slo ciste o to jaky ma chladic vliv na teploty a hluk graficke karty a jaky to ma vliv na naroky na airflow ve skrini.. Nic vic nic min.

Jakkoliv "kvalitní" chlazení nikdy nesníží vyzářené teplo. Pouze rozdíl teplot.
Citát z odkazu:
" stratos. | 28. 9. 2015 | 3 reakce | kladně hodnotil 1 uživatel z 13 | Reakce na 7

GTX960 i R9 380 se hrejou na 70°C tak mi vysvetli jak muze GTX960 do skrine vydat mene tepla.. Mam tu ty karty obe dve a ze skrine se line s obema stejne teplej vzduch. Sapphire ma toitz masivnejsi a vice dimenzovane chlazeni proto si s tim dokaze poradit.. "

Citát dokumentuje neznalost fyzikální závislosti tepla a teploty(přesněji rozdílu) a tepelného odporu. Je mezi nimi podobný vztah jako u napětí, proudu a elektrického odporu. To že je něco studenějšího neznamená, že nemůže vyzářit více tepla. To je jako se divit, že lze z autobaterie dostat řádově stovky ampér a přitom má pouze 12V:-)
Navíc se musí brát v úvahu rozdíl teplot a ne absolutní hodnota. Dále je nutno brát "naměřené hodnoty" s rezervou.

A opět v příspěvku na který reaguji:
"Takze ono to neni jenom o TDP karty ale take o volbe chlazeni.. A na to hodne lidi zapomina kdyz pisou o kartach typu MSI R9 390 8GB ze to je topeni apod.."

Základní vlastností topení je dodat do objektu teplo. O teplotě to opravdu není. Podlahové vytápění má z bezpečnostních důvodů omezenou teplotu na cca 30 stupňů a přesto vytopí barák. Pokud karta baští o 60W více, pak topí o 60W více.

Lidi a nemate to jedno? ;-)
Pokud mam dobrou a dobre vetranou skrin, tak tech 60W i kdyby se promenilo cele na teplo tak neni zadny problem a je to z praktickeho hlediska uplne jedno :-)
A pokud si nekdo koupi skrin za "500,-" tak mu nepomuze ani na 960 s nizsi spotrebou..

Samozřejmě, že 60W může* být celkem zanedbatelná hodnota(zejména po přepočtu na peníze), ale pokud někdo šíří nesmysly, tak se občas prostě neudržím.

* V létě je bez klimatizace každý Watt poznat :-)

smazano

V místním testu je to spíš 90+ W...

http://www.cnews.cz/recenze/msi-gtx-960-gaming-4g-aneb-r9-380x-proti-cty...

Ono to samozřejmě v kvalitní skříni je celkem jedno, ale v létě to už tak jedno bejt nemusí.
Navíc víc tepla se taky vyfoukne na desku, k procesoru...

Ono to bude i trochu tim, ze tady testuji Sapphirku a ta se jevi asi nejzraveji. Treba Asuska vypada, ze je lip vybalancovana a podle jinych webu zere i mene.

A nějaká GTX 960 nežere méně?

A co treba 750, ta taky nezere mene?

A integrovaná ještě méně...
jenom když napíšeš, že zrovna testujou žravější R9 380, tak to já můžu stejně tak napsat, že mohli testovat úspornější GTX 960.

a trolime a trolime...

No já ne, když jedna může žrát míň, tak si uvědomuju, že i druhá může žrát míň, nevidim rudě.

..akorat ze rec byla o tom ze je to 60W a ty jsi psal 90W. Rozdil prave mohk byt v tom, ze je rec o 2 ruznych kartach se stejnym chipem, kde jejich spotreba je jina v zavislosti na tom, jak je dany vyrobce karet naspecifikuje. Nikdo tady nepopira ze 960 nezere min a rec o tom ani nebyla.
Michat do toho uplne jiny chip protoze ma nizsi vykon je z prominutim akorat tak trotleni, protoze zelena nebo ruda...

Jakej jinej čip...napsal jsi že AMD má i úspornější R9 380 než ta co je v testu...a já jsem psal, že stejně tak má Nvidie úspornější GTX 960 než byla ta v testu.

Jsem nepsal nic o jinem chipu, ale o ruznych edicich karet stejneho chipu od ruznych vyrobcu. A nejde o 380 ale o 380X.
Tady se muzes podivat, jak vychazi spotreba na jine karte se stejnym chipem od jineho vyrobce, kdy se nemeri jen "peak" (max) spotreba
https://www.techpowerup.com/reviews/ASUS/R9_380X_Strix/21.html

a tady rovnez dokonce se stejnou Sapphire kartou, mereno jako "typicka" spotreba
http://techreport.com/review/29316/amd-radeon-r9-380x-graphics-card-revi...

Ty hodnoty jsou dost jine, nez co jsou namerene tady. Mozna proto, ze tady udavaji max spotrebu, nevim. Kazdopadne jsou blize vyse zminovanym 60W, nez 90W.

smazano

Tak bedna bude FRACTAL DESIGN a zdroj CORSAIR RM750i

tak s tím zdrojem jsi za vodou :-) pomalu proti čemukoli

prave proto sem ho vybiral kvuli nasledujici generaci grafik. Nejspis koupim grafarnu co mas ty a jak bude nova generace venku a hlavne odskousena a provali se nedostatky a klady (viz. GTX970) tak koupim uz neco co zvladne 4K a k tomu monitor

Hoši porovnávať GTX 960 4GB proti R9 380X 4GB je zlé. Lebo R9 380X 4GB je jasne v rýchlejšia ale aj drahšia. Ak zrovnávať tak jedine proti R9 380 4GB. Cena oboch kariet je cca identická.
Ps.: Ja som kúpil po zvážení cena-výkon synovi pod stromček ASUS STRIX-R9380-DC2OC-4GD5. S procesorom FX-8320E + doskou ASUS M5A99X EVO R2.0 to bude ideálna kombinácia na niekoľko rokov.

jo to budeš mít dobrý mám prakticky stejný PC jen mám to původní FX8320 a tu R9 380X sem měl za mnohem nižší cenu, ale tak nyní jsou už ty ceny R9 380X na cca 6800+,- s DPH.

No počkám jak dopadnou zeny a podle toho buď budu mít v herním PC zas Intel a nebo nový Zen... mám rok čas :-) Tuhle sestavu už mám snad 3-4 roky... střidal jsem jen grafiky 460Ti, 560Ti, R9 270X a teď R9 380X...

uplne super by bolo pretestovat aj R9 380 na Crimson driveroch, kedze gtx960 bolo pretestovane na najnovsich whql nvidia driveroch

a možná i zkusit W10 vs W7

mohly by ale...

...neviem či som to čítal tu alebo na inom webe ale toto niesú testy kde sa má dosiahnúť alebo docieliť čo najvyšší výsledok pre danú grafikú kartu.

Ide tu o porovnanie s ostatnými grafikami a teda ak by sa 380X otestovala na W10 už by výsledky neboli 100% porovnateľné s ostatnými GPU na Win 7 a premeriavať odznova dalších 20kariet je asi úplne nereálne.

Chjo tak znova psalo se že W10 nakoplo i starší grafiky... Čili by nemuselo být od věci se na tohle podívat nemyslíš? Proč na ICT webu neukázat zda a jaký je rozdíl ve výkonu? Nechápu co je na tom špatného...

Nieje na tom nič zlého ale opakujem,

TREBALO BY PREMERAŤ 26 grafík ! a to nepočítam grafiky pod 750Ti.

S grafikami pod 750Ti by to bolo 57 grafík na otestovanie !!!

57testov v 19hrách + spotreba a dalšie merania, upravujem svoj predošlí názor - totálne nereálne.

a proč nevybrat pár starších grafik pár nových a nezkusit to? a nebo když už dělám test tak tam jen přidat jaký je rozdíl mezi těmito OS? Hele Guru3D, Toms Hardware s tím neměli problém... Pořád tě nechápu...

A proč to musím dělat já, když už to máte přečtený jinde? ;-)

Protože, pokud má mít metodika nějaký smysl, tak potřebuje být dlouhodobě konzistentní. Pokud ti tedy alespoň trochu záleží na tom, aby ty výsledky někomu v něčem pomohli a byli alespoň trochu vypovídající v nějakém srovnávání.

Právě jste popsal rigidní metodiku pro nevyvíjené technologie včetně SW. Prokazuje se, že právě volba a zpracování driverů a míra využití parametrů HW je u různých verzí OS (a distribucí linuxu) různá. V časovém řezu má vícevariantní srovnání z hlediska verze OS zcela zásadní smysl, zvláště pokud je opakována při aktualizaci SW. Jinak Mirkovi díky za úsilí nejen zde na převážně Win serveru.

W10 by som zatial nechal tak, pokial to je beta :) (snad o rok?)

ale tu r9 380 by som fakt nechal pretestovat (2 a 4 GB) hodi sa to k tomuto testu
su to konkurencne karty k gtx 960

tak to jsem průběžný betatester :-D Krom her i OS :-D

uz uz som premyslal, ze tiez do W10 pojdem, ale ked som zistil, co urobil posledny W10 build, tak som si povedal, ze najskor so Zenom :)

No pozrel som heureku a musím povedať že výber medzi 960 4GB vs. 380 4GB vs. 380X 4GB je celkom náročný a byť na mieste potenciálneho kupca tak neviem neviem...

EVGA GeForce GTX 960 SuperSC ACX 2.0+ 4GB @ 1342MHz - 215€
Sapphire Radeon R9 380 NITRO 4GB @ 985MHz - 235€
Sapphire NITRO R9 380X 4GB @ 1040MHz - 252€

jednoduche, ked ma clovek zdroj 450W a viac, nech ide do radeonov, ked menej, tak do 960 :)

Tak nejak neviem čo mám hľadať...

keď už daj konkrétny model za konkrénu cenu ako som to spravil ja.

chjo to je průmět abych nebyl nařknut, že si úmyslně něco vybírám v něčí prospěch... pochopil?

Jinak mi ceny 960tky i 380tky připadaj v podstatě stejný... A prakticky obě karty cenově končí tam kde začíná 380X. Ale to ať si každý vybere svou oblíbenou značku zda Gigabyte MSi nebo jinou...

A prečo si niečo nevybrať keď to v nejakých hľadiskách viniká?

Ja si za svojím výberom 1342MHz 4GB GTX960 za bezkonkurenčných 215€ stojím, rovnako za 380X@1040MHz od Sapphire za 252€.
Minimálne pomery cena/výkon sú u oboch grafík bezkonkurenčné, 960ka pridáva ako bonus spotrebu, 380X výkon.

U tej mnou vybratej nie "X" 380 by sa dalo ešte polemizovať...

a bere Ti ho snad někdo? právě proto sem dal výběr jen typu GPU a blíže jsem nespecifikoval a ještě Ti to tu teď píšu... znovu opakuji každý by si vybral svou značku...

Zdravím,
můžete mi poradit, zrovna řeším upgrade PC. A rozhoduji se mezi těmito grafikami. Hraju na FHD rozlišení. Sestava níže. Navíc mám dilema, zda rychlejší procesor (i5-6600) a "horší" grafika GTX950 nebo horší procesor i5-6400 a lepší grafika GTX960?

http://www.czc.cz/b2nghllo0cjeg9l7vghrf8j32c/seznam

díky moc

Zdeněk

momentalne ani jedna. vzal bych R9 380 4GB uz stoji pod 6tis s DPH nebo si priplat na 380X a dostanes dalsich 10% nahoru

Reklama
Reklama