Reklama

Watch Dogs: korektní souboj 25 GeForce a Radeonů

Jedna z nejočekávanějších her roku 2014 způsobila už hodně rozruchu. My jsme zpracovali test grafických karet až po rychlé opravě výkonu ze strany AMD.

Srovnání 25 grafických karet

Srovnání 25 grafických karet

Výsledky vás ujistí, že hysterie kolem nějakého srovnávání grafik ve Watch Dogs či nedejbože zavedení do metodik větších srovnávacích testů GPU, byla naprosto zbytečná. Dokonce se dá říct, že v průměru si Radeony vedou až překvapivě dobře a obyčejně podobně stojící GeForce předčí.

Všimněte si, že ačkoli hra křičí, že pro kombinaci textur Ultra a vyhlazování hran 4× MSAA potřebujete 3 GB videopaměti, není GeForce GTX 770 v takovém nastavení výkonnostně penalizována. Problém nastane až při nakombinování výše zmíněných nastavení s vysokým rozlišením 2560 × 1600 px. Tam už ale hra není plynulá ani na GeForce GTX 780 (a lze najít situace, kde v tomto nastavení jde do kolen i GTX 780 Ti OC za 16 000 Kč).

1920 × 1080 px, High, Temporal SMAA [min. fps]

2560 × 1600 px, High, Temporal SMAA [min. fps]

1920 × 1080 px, Ultra, 4× MSAA [min. fps]

2560 × 1600 px, Ultra, 4× MSAA [min. fps]


 

Další články na téma: 
Oblíbené Tisk E-mail
Reklama

Komentáře

V priemere tých rozlíšení je Ti-čko OC o 12.25% rýchlejšie ako 290X Uber. Ešte je Ti-čko aj menej žravé. Otazka znie či je to málo alebo veľa resp. či to stojí za rozdiel 4000 CZK.

Nějak se mi nezdá že GTX 780 SLI má méně než OC 780 ti.

Z tohoto testu jsem se moc nedozvěděl teda :(

- nějaký test procesorů? Zajímal by mě rozdíl ve fps mezi různými procesory i3/i5/i7
- rozdíl fps při použití 2GB a 4GB VRAM? Dle minulého tématu, kde se to nakouslo a dle grafů co jsem hledal, tak je tam rozdíl nula nula nic, přitom v článku je psáno, že hra při ultra texturách ukousne hodně VRAM a máme počítat s propady ??? Mě přeci nezajímá tabulka kolik to žere VRAM, ale reálný dopad na fps.
- dál by mě třeba zajímal pokles fps při zapnutí jednotlivých funkcí, doteď nevím jaký má vliv třeba nastavení ukládání množství snímků do paměti (1 až 5) nebo jak se to jmenuje.

Budu zase za špatného, ale obyčejný člověk si tady z takového srovnání teda moc neodnese a nepřinesli jste (po takové době) nic jiného, než co je vidět z jiných benchmarků už někdy před týdnem. Hlavně, že se drbete s příkonem fps/watt .. WTF ???? Tohle fakt někdo řeší? K čemu průměrnému hráči taková informace je? To snad patří když už, tak do srovnání grafických karet a ne do benchmarku dané hry.

:/

Jsem velmi zklamán tímto "testem", který mi nedal absolutně nic a to jsem se na něj tak těšil. A co třeba takové Vsync on / off porovnání kdy to má smysl apod.?

Jinak já hraju na 4570+760 a fhd na high+smaa v pohodě akorát se občas objeví tearing, když zapnu Vsync je to nehratelné.

Ve fullscreenu to pro mě bylo taky nehratelné. VSync on = dropy na 30, hnus. Vsync off = neustálý tearing, hnus.
Ale v borderless window mi to šlape skvěle. Vsync je zapnut, ale s triple bufferingem (asi), protože framerate neklesá a nekolísá. Stuttering taky nic.

vizuelne se ta hra docela povedla co se tyce samotnych modelu, efektove to spis casem pok*****

je zbytecne ji v tomhle stavu vubec testovat, natos radit do recenzi pro HW

//edit, redakce: Šamane, mírni se ve výrazivu

Když popíšu vlastní zkušenost, tak za 30 hodin hraní jsem na bug nenarazil. Hra ani jednou nespadla. Hraju na 2500K 4ghz/280X/8GBRAM, 1080p+ultra preset+textures high+TSMAA, v borderless windowed modu, a framerate je cca 40-60. Není to ideální, ale hratelný to je v klidu a vypadá to úžasně.
Zajímalo by mě co pok***** efektově, protože třeba efekty počasí vypadají fantasticky. Nahrál jsem např. tato videa:
http://www.gamersyde.com/thqstream_watch_dogs_pc_gameplay_ultra_spec-GnQ...
http://www.gamersyde.com/thqstream_watch_dogs_pc_gameplay_3_ultra_spec_s...

Samozřejmě ale doufám že patchem ještě hru poladí, těch 60fps locknutých by se šiklo.

ono to bude asi tim ze jsem do toho delal par auticek a mohl jsem si zahrat nescriptovane casti jeste cca pred 2 lety (vpodstate jen mesto kde se dalo behat a jezdit, ale zadny ukoly), a bohuzel od te doby se na efektech ubralo, asi kdyz se zjistilo ze to ma se scriptama desny naroky, nevim?, a bohuzel ja ty graficke bugy vidim i na prodavane verzi, nemyslim to ze neco ubrali, ale co je kde nedoladene/nedodelane a obcas si vsimam i bugu v kolizich a podobne, a nasel jsem chybu i na svem modelu, takze to pome asi ani nekontrolovali a ja si ji tenkrat taky nevsimnul :(

To nám sděluješ, nebo se jen chlubíš?

zdeluju ti ze WD se casem graficky zhorsilo, bejvala doba kdy vypadalo vizualne lepe nez jak si ho dnes zahrajem :( teda krom vody, ta vypada ted suprove

Tak tohle prakticky žádný hráč za bugy ale nepovažuje. To jsou vyloženě developerské věci které bude rozebírat možná tak Vávra nebo ty, ale hráčům jsou nějaké místy ne zcela dokonalé kolize nebo whatever úplně volný :)
Já za bug považuju když mi nejde splnit quest nebo se mi postava propadne do země, to jsou pro mě bugy :)
Ale když se člověk podívá na tu prezentačku z E3 2012 (k vidění v dokonalé kvalitě taky na gamersyde), tak je vidět že tam bylo:
- víc odlesků
- víc kouře
- místy lepší polygonové modely

Ale jak píšeš, asi to museli zkrouhnout pro finální hru, je rozdíl dělat skriptované demo běžící na nejvýkonějším PC (a jen v 720p), a tím dělat finální hru na hardware z roku 2006-2010 (staré/nové konzole).
A jestli se mohu zeptat, jaké modely jsi tam dělal ty ? Ať se mohu pokochat. A jaká je tam chyba na tom tvojem ?

zachranku a hasicaka + par drobnych doplnku do mesta, a prave na hasicaku me vepredu poblikava doubleface na svetlech :D ale ono se bohuzel na autech dost stahovalo, takze jsou oproti puvodnim "planum" docela chudsi :( ten kro delal vetsinu aut si asi docela maknul, mel by to bej nekdo interni

Tak to je cool, zrovna záchranka i hasičský auto mi přišly udělaný dost dobře, ale nezkoumal jsem je nějak extra do detailu. Ale dobrý práce. Auta vypadaj v rámci možností (cross gen) furt dost dobře.

http://www.eurogamer.cz/articles/2014-05-31-tema-100-1-nedostatk-watch-d...

jo žádný bugy,všechno jede naprosto v pohode.Ta hra je hruza.

Nechápu o jakých buzích mluvíš. Já už mám hru skoro dohranou a všechno šlape perfektně. Parádní hratelnost, supr svět a příběh, bezva přestřelky a situace, hackování. Jasně, má to pár chybek, ale která hra nemá. Celkově za mě určitě 8/10. Po těch odkladech jsem to ani nečekal a kdo podlehl hypu a vysnil si nějakou imba verzi GTA, jeho minus. Díky prodejům tu bude 2ka a pokud se jim podaří poučit se z některých chyb a posunout hru na o další level ...

PS: za podobné slovíčko jsem tu málem dostal ban, dvojí metr rulezzz.

Jinak tenhle test je divný. Přijde mi že jste vybrali velmi nevhodnou lokaci, vůbec se zde neukazuje náročnost hry. Uprostřed downtownu mezi budovami je náročnost jinde nežli při chůzi kolem vody. Tenhle test nikomu neřekne jak ta hra ve skutečnosti běží.

Tam je ale problém ta opakovatelnost. A to dost velký,

Problém to je, no. Ale takhle ten test zase neříká jak ta hra jede, jen srovnává karty.
Je to dilema :)

Prosím vás poraďte. Mám i5-750, 12GB RAM, AMD MSI R9 270X a hra mi šlape tak 30-50 FPS když nejsem v autě. Okamžitě co nasednu a rozjedu se přichází FPS dropy, ve městě mám tak 20-25 FPS a dropy na nulu a zpět -> nehratelné ...Nastavení high, dočasné SMAA, Full HD, Catalysty 14.6 vůbec nepomohly. Nevíte čím by to mohlo být? Děkuji.
Mimo město je to lepší, ale taky žádná sláva.

Při jízdě jdou fps dolů. To v tom testu vůbec není a jak psal někdo nahoře, u té vody je to o ničem. Opakovatelnost, neopakovatelnost, zase takový rozdíl to být nemůže a i kdyby, raději uvidím test reálně ze hry uprostřed města +- 10 procent nebo třeba v tom autě, než nicneříkající test u vody.

Btw Někde jsem četl vyjádření, že na tuhle hru je ideál cpu, který dává 9tis bodů v CpuMarku, což ta tvoje 750 dá stěží. Jinak dej gpu zásobník 2 snímky, AA "jen" SMAA a ostatní na high (oproti ultra nepoznáš rozdíl prakticky), já jsem tohle udělal a najednou to mám plynulé i při jízdě a minimum tearingu.

Zkus snížit kvalitu textur na low, zda to bude také dělat, a pak zvyšovat. Zkus borderless window.
A GPU buffer mám na 1.

Jo čím míň tím líp. Taky jsem to teĎ zkusil dát na 1 místo dosavadní 2. A v tom okně to u mě nemá žádný vliv, navíc nemůžeš vyp/zap vsync.

edit: tak po 2 hodinách hraní tearing je pryč uplně, když jsem dal na 1. Na 2 byl minimálně sem tam, teď už jsem ho neviděl nikde ani v cutscénách.

Zkoušel jsem vše, textury rozhodně snižovat nehodlám, a stejně mi to pomohlo jen malinko. Ať už to mám na low nebo high je to jedno. Zkusím přetaktovat CPU teda.

Naozaj "Radeon R9 280X (2×) CrossFire" dava aj pri rozliseni 1920*1080 aj 2560*1600 navlas rovnake vysledky?
Verim, ze tento test bol robeny s profesionalnym pristupom avsak neprehliadlo sa nieco, alebo je to len cista nahoda?
dakejem za odpoved

Chyba to není, podezřelé výsledky jsme přeměřovali.

Souviset to může jak s limitem takové konfigurace ze strany zbytku systému (Multi-GPU má vyšší režii), tak s tímto:

Known Issues   

  • Running Watch Dogs with a R9 280X CrossFire configuration may result in the application running in CrossFire software compositing mode
  • Enabling Temporal SMAA in the AMD Catalyst Control center under a CrossFire configuration when playing Watch Dogs will result in Flickering

http://support.amd.com/en-us/kb-articles/Pages/latest-catalyst-windows-b...

Uprimne receno nechapu, proc testujete hru s vypnutymi Nvidia technologiemi. Tak ji totiz nikdo s Nvidia GPU hrat nebude. Co to ma za smysl? Tak akorat to zakryva fakt, ze pri jejich zapnuti hra pujde rychleji a v lepsi kvalite, nez u AMD.

Uz jen zapnuti PhysX na GPU muze dost pomoci (samozrejme zalezi na konkretni implementaci), protoze odlehci CPU, ktere nebude muset fyziku pocitat.

Tak PhysX jo? ;-)
Odkaz

ehm 404 error.
S Mauditem se zaobývat nemá cenu,von je prototyp nvidiota.

Asi takhle - az se dostanu na vasi a treba Stratosovo uroven a budu spamovat komentare internetovych obchodu jako czc a podobne hnojem ve smyslu "nekupujte Nvidie, kupujte AMD", tak budes mit pravo nejak komentovat, jestli jsem nebo nejsem Nvidiot. Zatim slysim jen nejaky sumeni vetricku ...

Hovorí sa, že PhysX sa má do hry dodať v niekjtorom z budúcich patchov. Či ale GPU PhysX je otázne. Celkovo je to ale skôr kačica. BTW tu je celkom zaujímavý spôsob ako hru vytuniť:

http://www.dsogaming.com/news/watch_dogs-modders-aiming-for-e3-2012-visu...

Sám som to neskúšal. Hru som zatiaľ nekúpil.

Celkovo nie je problém používať 2 fyzikálne API v jednej hre. Ak je naozaj použitý Havok v AC IV, tak je tam v tandeme s PhysX. Nie je to prvý ani posledný krát. Inak myslím, že Mauditova poznámka ku GPU PhysX sa nevzťahovala na Watch Dogs ale všeobecne. Tiež si myslím, že by bolo super urobiť aj testy so zapnutými NV features. Jednak tými čo idú aj na konkurenčných GPU a aj samostatne na NV grafikách pre tie, ktoré sú vendor lock. Boli by to zaujímavé porovnávania. Ale medzi ľudmi to asi nebude žiadané v dostatočnom merítku aby stálo venovať sa testom dlhšie kvôli NV GameWorks.

Tak za prve, nikde nerikam, ze jde ciste jen o PhysX. I decku bylo jasne, ze to je priklad toho, jak zapnuta NV feature muze pozitivne ovlivnit vykon. Ze se za to chytate, to vypada jako snaha vyhnout se odpovedi (ktera skutecne neprisla).

PhysX by ve Watch Dogs mel byt. V posledni dobe je ve spouste AAA titulu. I ceska Arma 3, ktera ted vyhrala nejlepsi hru roku, na PhysX bezi.

Meli byste zacit testovat hry tak, jak se skutecne hraji. Silne pochybuju o tom, ze s hraci budou na Nvidiich vypinat featury jen proto, ze je konkurence nema ..

Chytl jsem se jediné konkrétní části (celkem logicky). Co bychom (tedy) konkrétně měli na GeForce zapnout, aby hra byla hezčí a plynulejší? Jestli myslíš TXAA, tak to splňuje bohužel jen první atribut.

Ve Watch Dogs? Treba HBAO+, ktere dava mnohem lepsi kvalitu stinu a zaroven je rychlejsi nez srovnatelne techniky, a PhysX az prijde.

Neni mozne dal recenzovat Nvidia a AMD karty bez zohledneni faktu, ze na Nvidia kartach hry vypadaji mnohem lepe. Ale to neni jen o Watch Dogs. TXAA, God Rays, PhysX, HBAO+ atd. atd. je ve spouste jinych her, technologie jako Adaptive V-sync pro lidi bez GSync/FreeSync monitoru se pocitaji take. To uz neni jen o tom, ze AMD ve snaze dohnat vykon Nvidii snizuje detaily textur a objektu, hloubku barev atd., ale o celkovem zazitku z hrani.

Kdyz se bude clovek ridit vasimi vysledky, kdy oznacite kartu od AMD za lepsi, protoze je pri stejnem vykonu o 200,- levnejsi, tak jak pak tomu cloveku zduvodnite, ze jeho soused ma s Nvidii mnohem lepsi obraz, s vetsi kvalitou a plynulosti, realistickou fyziku bez snizeni vykonu, hra se mu diky GF Experience nastavi na optimalni hodnoty pro jeho konfiguraci prakticky sama a jeste muze z fleku streamovat nebo nahravat vlastni hru. Nekdy mi prijde, ze vam to proste nedochazi.

Co to meleš, ty ******?! Když jsme s kolegy naposledy srovnávali kvalitu obrazu na výstupu, zvítězilo AMD - můžeš mi prosímtě ukázat zdroj odkud čerpáš a ne "soused" a jedna babka povídala?! Jako fakt by mě zajímalo, kde si přišel k tomu homovýplodu, že AMD má nižší kvalitu textur a podání barev (doména AMD je přesný opak, prolez si internet), zalez ty *****...

//edit, redakce: Ačkoli uživatel, na kterého reagujete, nemusí mít pravdu, diskutujeme tu slušně. Poslední varování před blokací účtu.

Aha, takze ty po me chces zdroj, odkud cerpam, a zaroven se odkazes na svuj "my s kolegy" :D To jako vazne?

No dobre, kdyz chces detaily .. Snad uz od prvni verze Far Cry je zname, ze AMD umele redukuje barevnou hloubku sceny oproti tomu, co chce vyvojar. Kdysi kvuli tomu byla docela afera. Nvidia kvuli tomu vypustila pro recenzenty programek, ktery to same delal i na Nvidiich, aby bylo videt, jaky to ma vliv na vykon a na obraz. Rozdil ve vykonech byl i 10% a kvalita byla v urcitych scenach jasne horsi - treba u vstupu do jeskyne (tma ve svetle scene) bylo videt prechody mezi odstiny sedi. Pak tu byly vypadky v renderovani objektu na AMD grafikach, napriklad v Total War (na coz se myslim i na extrahardware narazilo), kdy se ve velkych skupinach renderovalo mene jednotek, nez u Nvidie. Dal treba Metro, ve kterem byly mene kvalitni mlhy, nebo dokonce nekde chybely uplne. Pak tu byl Alan Wake, kde se vegetace renderovala s nizsim LOD a textury mely mensi detaily. A to jsou jen veci, ktere dela AMD hur, nez by meli, a na ktere si ted narychlo vzpomenu. Spoustu dalsich uz jsem zapomnel. Oni proste optimalizuji na ukor kvality.

Pak jsou tu samozrejme dalsi, ktere dela Nvidia lepe, nezli AMD. At uz je to jejich dlouhodoba snaha o lepsi plynulost obrazu, ktera zacinala adaptive v-syncem a frame meteringem (a vytvorila novou metodiku na mereni frame times), a pokracuje G-Syncem, ktery AMD promptne (i kdyz mozna neuplne, to teprv uvidime) okopirovalo. A muzeme pokracovat treba pridavnymi efekty, ktere lze zapnout v ovladacich Nvidie - takto lze pridat Screen-Space Ambient Occlusion treba do her, kde je vyvojari neimplementovali - napr. Diablo 3, Skyrim (ten vypada mnohem lepe potom), nebo lepsi mody antialiasingu do her, opet proto, ze je vyvojari neimplementovali. V neposledni rade featury do starych her, jako treba specialni formy vyhlazovani pro stare DX9 hry (napada me rychle post process vyhlazovani, nebo take supersampling).

Kdyz prisla teselace, tak ji AMD implementovala sice prvni, ale slabouckou verzi jen jako reklamni featuru, takze se nedala pouzivat v globalnim provedeni. Nvidia vyrazne zvedla na svych GPU triangle-throughput, ktery se nekolik let v GPU obou vyrobcu skoro nepohnul a implementovala velmi vykone teselatory. To donutilo AMD nasledovat. A dnes se muze teselovat vsechno a vsude a zvyseny triangle throughput se da vyuzit k mnohem komplexnejsim a detailnejsim scenam.

Uprimne receno, doufam, ze jsi tou "kvalitou na vystupu" nemyslel prehravani filmu, protoze jinak me nenapada, kde jsi na to prisel, ty experte :D

Zdroje? K otázce tvého důvtipu se nebudu vyjadřovat...
Za těmi ***** si budu stát, protože meleš absolutní nesmysly - tento další výpotek, ve kterém se oháníš pojmy a dojmy, tě musel stát hodně práce, ale ti co o tom něco ví teď kroutí hlavami nad tvým *****...
My s kolegy poměřovali výkon a kvalitu v CAD a DCC na profi řešeních u obou konkurenčních značek - to s těmi teselátory nemyslíš vážně, že ne (protože to bylo přesně naopak)... A opakuji, podání barev bylo lepší a věrnější u AMD - ono to spíš vypadá, jako bys v načrtnuté otátce barevné gradace/hloubky srovnával monitory 6bit vs 8bit, což je úplně mimo mísu...

boha jeho nebav se s ním, podle něho physX přinese výkon... omg

Bavíte sa zrejme každý o niečom inom. Ty o profesionálnom využití a Maudit o hrách. Ja som ale zvedavý na teseláciu kde tvrdíš, že to bolo naopak ako hovorí Maudit. Ja si tiež pamätám, že NVIDIA GPU zvládali vyššie stupne teselácie citeľne lepšie ako konkurencia. Miestami to NVIDIA využívala aj v hrách a kvôli tomu AMD cez ovládače stupeň teselácie umelo znižovalo, aby jej karty nevyzerali zle. Teraz je to už myslím vyrovnané, ale začiatky si pamätám presne ako Maudit.

me prijde ze vypotky tu ale posledni dobou produkujes ty, ohanis se tu nejakyma testama s kolegama jejich verohodnost vem burt, ale kdys to navazeme na tvoje posty kdy jsi se tu nedavno rozplyval nad tim jak jste se s kolegy dohodli ze nebudete upgradovat na 4k drive nez budou kvalitni monitory, a tenkrat jsi tam vypisoval rozliseni ktera asi nebudou zrovna patrit k nejnovejsim monitorum, tak si ted predstavuju jak asi kvalitni barvy a dalsi vlastnosti podavaji takove monitory a jestli byli alespon v dohledne dobe vubec kalibrovane, o kvalitach verohodnych barev nebo toho jak dobre jeste zvladaji treba ostatni parametry to pak vypovida docela hodne ;) nehlede i na to o jakych kartach jsi tenkrat psal s tim ze u Nvidie jse jednalo vpodstate o totalni low-end kterej nekdo nekde vyskrabal ve skladu z vrstvy prachu a vam to zrejme nadsene prodal jako profi Quadro :D

mimochodem s tesselatory je to presne tak jak pisi zbyli dva prispevatele a reselo se to i zde na EHW v nekolika novinkach ;) v HAWX 2 to byla tenkrat hoodne velka kauza https://www.youtube.com/watch?v=bHh8D3AzZaU a karty AMD ty horni nastaveni nezvladali a diky ovladacum snizovali uroven tesselace tak aby ji zvladli a vyditelne to proste bylo, nasledovali i dalsi kauzy kde byli tesselacni faktory nastavene vejs a AMD to jakoze umele brzdilo, treba v Crysis 2 a dalsich ;) a i zde se resil dalsi fale ohledne kvality AMD v dalsich hrach a ze toho neni malo http://www.cnews.cz/clanky/kvalita-obrazu-s-geforce-gtx-400-radeon-hd-5800
http://www.cnews.cz/clanky/test-geforce-gtx-480-iii-directx-11-anti-alia...

a pokud chces resit profi reseni testy nato existuji a to dosti rozsahle http://www.tomshardware.com/reviews/best-workstation-graphics-card,3493.... ale pro vas asi zbytecne, za takove karty stejne utracet nebudete podle toho co jsi vypisoval ze mate :)

No tak si ty články přečti znovu a mé posty také - junior designéři u nás mají šunky monitory, přiznávám - ale oni tlačí hlavně výkresy, senior designéři/inženýři už zpracovávají vizualizace (např. analýzy), ale to jsem ti všecko popisoval a tys to převrátil a hrubě zjednodušil, stejně jako tebou uvedené články...

Imho, nepoučuj mě - já docela dost rozumím povaze tvé práce, ale ty naprosto plaveš v povaze mé práce, v uvedeném testu se laskavě podívej na kapitolu SolidWorks/Autocad 3D (náš CAD sw) a mrkni na výsledky "RealView disable composite" a "rotate conceptual" což jsou nastavení, které z 90% pracovního času užívá běžný konstruktér (junior u nás V4900, připomínám spotřeba <75W a cena 4000,-) a ne machýrek postižený realistickým vzhledem - jedna věc je tlačit výrobní výkresy, druhá věc je "vytlačit" prezentační obrázky - tak tlač tu svou káru dál a nevrtej se v tom, čemu rozumíš jak koza petrželi. My si umíme udělat vlastní podrobnou analýzu toho, co se nám pro práci vyplatí...

Mimochodem ty odborníku - to Quadro K600 si zvolil podobný pošuk jako vy, který to navíc chtěl pro práci v Inventoru (původní plán) - tak čekni výsledky, mimochodem o výpovědní hodnotě těch testů lze bez srovnání kvality obrazu velmi pochybovat zejména ve srovnáních gaming vs. profi card, kde profi karta disponuje až několikanásobně lepším viewportem...

A taky ti děkuji, že jsi sem tedy hodil zdroj, kde se potvrzuje odvěká generalizace a sice, že nVidia "ma barvy oprane, jak galaty z armyshopu"...

na co reagujes?, nenapsal jsi vlastne nic cim by jsi reagoval na muj post :D

a posukem laskave nazivej maximalne sam sebe, u ostatnich lidi se tomu vyhni jo, nikdo te tu taky nenaziva hanlive, nebo se tam u vas neumite slusne chovat?

a evidentne v tom mas trosku chaos nebo asi spatna pamet? ted pises o Quadru K600 a predtim jsi psal ze mate jedno K2000? cituji tvuj post z 27. Březen 2014
"Pracuji v kanceláři s CAD s ještě 12 lidmi, až na jednoho máme v mašinách všichni FirePro, jako máš pravdu, že ty wiewporty na tom jednom Quadru K2000, co tu máme, jsou jakoby hezčí"

Ty jsi nezmar a hovado a já se zbytečně namáhám, chápu - čest trolení soudruhu, napříště se zlepším...

Máš pravdu, sekl jsem se, je to K2000 - ano viewporty jsou "na něm !jakoby! hezčí" z jednoho prostého důvodu - nVida má krapet lepší podporu a viewport podporuje více efektů, což je ideální do prezentace, ale pokud bychom to chtěli ukazovat z něj, bylo by nutné více poladit barvy (AMD je má nádherné v deafultu)... Mimochodem, když už mě chytáš za slovo - co je jako špatné na tom, že jako primární monitory máme ve většině fHD? To jako fHD nedisponují modely s kalibrací a AdobeRGB rozsahem?

Že se mě (a toho tématu) chytáš zrovna ty, který používá Titan, či herní karty, machruje s realistickou grafikou, kterou ale dotáhne jen v CUDA akcelerovaném renderu, jinak ve viewportu vidíš max. 20% jeho možností a při tomto výkonu ti karta navíc "žere i trávu kolem cesty"...

v tom poslednim odstavci tak krasne varis z vody a pises takove nesmysly ze to je uzasne vtipne :D jest enejaky perly vytahnes z rukavu?

evidentne netusis ktera bije co se moji prace tyce ale hlavne nezapomen napsat ze ja netusim co obnasi tvoje prace, a ano opravdu to nevim a netusim :) sak CAD jsem mel jen ve skole a v te dobe (1998-9) jsme byli radi ze vubec mame nejakou dedikovanou VGA co to zvlada, typu Riva TNT a podobne, doma kde je archytekt a srojar jsem na CAD koukal vlastne jen kdys jsem nehral hry a kdys me dneska prijdou podklady od archytektu nebo inzenyru v CADu (momentalni zakazka treba reaktor pro Dukovany), tak je vlastne neumim ani otevrit, cist v nich, natoz je editovat aby se me s tim pak dal snadneji pracovalo v dalsich softech, a kdys jsem delal plany pro dobijeci infrastrukturu do jedne souteze kde byl soucasti i plan danych zarizeni tak jsem si na CAD najmul psa sestry me pritelkyne aby to nakreslila v tom CADu za me, takze ano ja naprosto netisim co to CAD a prace v nem je a nikdy jsem ten soft nevidel na vlastni oci natoz pak usi nebo nos :D

mimochodem karta me ve viewportech jede ve 2D rezimu, CUDU pri tom opravdu nevyuziva a spotreba se pohybuje mezi 20-40W pri multimonitor setingu 2 monitoru, no a furt si rikam ze me to asi privede na mizinu jak je to desne uzrane ta karta, ale pravda k trave na terase to nemam daleko, takze pokud najdes zpusob jak misto elektriny vyizuvat tu travu, tak nejsem proti, navic nam tu na Praze 4 zrovna vsude sekaj travu, takze by bylo paliva pro tu kartu habakuk :D

Co se týče perel, víš jak to s nimi je - v posledním odstavci nevařím z vody, je sice možné, že nemám pravdu v oblasti spotřeby (ostatně to ani ty) - to jsem až tak nestudoval, ale mám pravdu co se týče kvality obrazu viewportu, kde stěží dosáhneš na čtvrtinu featur profikaret (jako např. diskutovaná okluze, korektně zobrazené textury, mnohem lepší/vyhlazenější wire při čtvrtinové spotřebě atd. - já t mám odzoušené, ty ve viewportu vidíš celkem kulové)...

Myslíš, že jsi starší? Zkušenější? Nebo proč vytahuješ svůj věk? A jako proč tu trotlíš?

Ty stále mluvíš ale o vizualizacích, ne o tvorbě výrobních výkresů, konstruktéřině jako takové...

Nehul tu trávu, máš z mozku ementál...

ja nekde vytahnul svuj vek? teda to by me zajimalo jak odvodis vek od toho ze jsem v 97 studoval :D

a psal jsem vejs ze jsem delal i vykresy, ne to opravdu neni vizualizace, ale normalni vykres dobijeciho zarizeni podle kterych se pak dela samotna vyroba v realu ;) ano ja umim v cadu a to ze se jim primarne nezivim neznamena ze ho nepouzivam obcas pri sve praci a tedy s nim obcas normalne delam tak jako kazdej jinej strojar co navrhuje treba nejaky konstrukcni veci, svete div se ja dokonce zvladnu i ty veci okolo elektra ktere s tim souvosej, a dokonce si predstav ze umim i naprogramovat podle dat i cncčka, to je strasny co co dnes ti podnikatele musej vsechno ovladat aby se uzivili :D

mimochodem jako astmatik nekourim ani travu ani normalni cigarety :)

No, tvá určitá dýchavičnost je teda znát, to ti povím...
Chápu, chápu, myslím tu narážku na CNCčka - to si asi pálíš šablony pro své budoucí květnaté výplody...

kvetinace si radsi kupuju v OBI

bylo by mozna dobre se podelit o srovnavaci test kvality obrazu nejen s kolegy, ale i tady :)

My jsme ale testovali s HBAO+. Na přiložených screenech (v první kapitole) je možné posoudit, zda tato (nikoli vendor-specific) technologie funguje na GTX 780 Ti stejně jako na R9 290X.

TXAA jsem ti vysvětlil (to by asi nebylo hezké, aby GF měli kratší pruhy v grafech a srovnávali jsme hrušky a jablka – na článek, kde je přínos TXAA vidět, jsme odkázali hned v první kapitole větším tučným písmem).

Připadá mi, žes přišel trollit dost nepřipraven.

Jako, on má zčásti pravdu (ne že bych měl chuť se ho zastávat vzhledem k tomu, že vyznává oprané barvy), já bych taky uvítal srovnání dopadu featur/efektů nVidie na obraz a výkon (ovšem pokud tam nějaké takové/zásadní vůbec jsou - osobně s tou hrou nemám a nebudu mít žádnou zkušenost - je to to totiž z technického hlediska paskvil, píše se o tom všude) - ale v tomto jste vy z obliga, jde vám o měření výkonu za stejných podmínek. Osobně zkusím počkat jestli náhodou nezareaguje pctuning, či případně jestli nám nenachystáte speciál - ono by to možná bylo vhodné vzhledem k flamewar, který vzniknul díky WD a implementaci nVidia GameWorks...

Jak jsem psal, lépe než tady to srovnání přínosu nejsme schopni ani technicky udělat:
http://www.geforce.com/whats-new/guides/watch-dogs-graphics-performance-...
Ale jinak je s tím zapnutím technologií, díky nimž to bude na GeForce hezčí a zároveň rychlejší, od začátku vedle. 

Pokud tam žádné zásadní a prokazatelně zlepšující featury (physX) nejsou, pak nemáte důvod, že jo...
A poměřovat kvalitu Ambient Oclussion na jpegu, nebo videu z youtube je úplně mimo mísu, vzhledem k tomu, že jeho přínos/kvalitu (jednostupňový rozdíl) je těžko soudit i na rawu (to musí být opravdu speciální scény/podmínky).

Ani ne, ty rozdíly jsou na na vybraných screenech tak zřejmé, že JPEG s nízkou mírou komprese docela stačí. Zvlášť, když je to tam tak parádně udělané s tím posuvníkem.

Ano, ale narážím na to, že jsou to vybrané speciální scény a jestli (spekulace) má teda nVidia lepší implementaci HBAO+ pak to za a) na vašich screenech nepoznáme b)pokud bychom srovnávali v podmínkách/scénách nVidie (jako na jejich stránkách), pak rozpoznat rozdíl jednoho chlupu (když radeony stejně HBAO+ podporují) by vyžadovalo mnohem detailnější formát (ideálně raw)...

Naše screeny (HBAO+ High u srovnání R9 290X a GTX 780 Ti) jsou v PNG. Akorát je problém, že je to vždy trochu posunuté a navíc je tam i vždy mírně jinak světlo.

No právě - vyžadovalo by to fakt krutě speciální podmínky a specifické scény, abychom mohli srovnat implementaci a kvalitu HBAO+ u jednotlivých výrobců - a stejně, bylo by to k něčemu? Myslím, že ne, obvzláště ne v případě tak paskvilního kusu sw, jakým WD je, kde patrně nemůžeme ani poměřovat výkon/kvalita s nějakým kloudným výsledkem...

Nebyl bych si tak jisty, jestli mate HBAO+ i na Radeonech. Ubisoft o tom mluvi jako o Nvidia technologii, a to jak k technology preview k Watch Dogs, tak i napriklad u Assasin's Creed. Ty vase screeny mi prijdou docela dost odlisne na to, aby se z nich dalo posoudit, jaky je rozdil v klavite u tehle jedne featury.

Kdyz jste mohli testovat AMD grafiky v uber modu a bez uber modu, tak proc neotestovat Nvidia grafiky s celym feature setem a bez nej? Konecne by bylo mozne v hodnoceni lepsi kvalitu a feature set na Nvidiich zohlednit. Neco jako "bude vas to stat sice 10% fps, ale diky God Rays, HBAO+ a TXAA bude kvalita scen mohem lepsi, nez u Radeonu".

Pripada mi, ze tvoje vymluvy jsou ponekud chabe (kdyz uz si teda nevykame).

physX přinese co? kromě ještě větších fps dropů ? to je dead technologie... nikam se neposouvá, používají to dvě hry za rok, jestli vůbec...

Nevieš o PhysX absolútne nič. Ale škoda rečí. Nemá zmysel toto vysvetľovať niekomu kto verí istému reddaktorovi.

tak proč není v každé hře když je to tak skvělá technologie ? v kolika hrách byl ? a v kolika hrách byl opravdovým přínosem pro hráče (aniž by musel kupovat high-end gpu aby měl alespň hratelné snímky?)? a ty věříš jakému reddaktorovi ?

já osobně si přečtu více názorů různých lidí a udělám si svůj.. v physX nevidím nic, jsou lepší technologie na fyziku, které tak radikálně nezatěžují GPU jako skvělý physX...

ale přesně takovou reakci jsem čekal... vč. té narážky... prostě kdo má jiný názor není vítán...

Ok tak to skúsim aj keď kvôli predsudkom aké máš neviem či to bude mať zmysel.

PhysX sa využíva v hrách viac ako ktorékoľvek iné fyzikálne API. Áno viac ako Havok a áno určite viac ako Bullet. O iných fyzikálnych API ani nemá zmysel uvažovať. Žiadne iné fyzikálne API ešte nebolo v hrách použité v GPU akcelerácii. Takže vyhlásenie typu "jsou lepší technologie na fyziku, které tak radikálně nezatěžují GPU jako skvělý physX" je úplne mimo. Je jasné, že ktorékoľvek iné fyzikálne API nezaťažuje GPU keďže ho nevyužíva. PhysX sa inak hlavne využíva iba základný a teda je akcelerovaný cez CPU, kde je úplne rovnocenný s inými fyzikálnymi API. Prosím neargumentuj neoptimalizáciou na viacjadrové CPU ani používaním starých inštrukčných sád. To už totiž neplatí niekoľko rokov. Odkedy prešiel PhysX k verzii 3.x. Môžeš si pozrieť testy, ktoré ukazujú akým vývojom PhysX prešiel v tomto článku:

http://www.codercorner.com/blog/?p=748

Máš tam aj zrovnanie s vtedy aktuálnou verziou Bulletu. Po implementačnej stránke prešiel PhysX dosť slušným vývojom (paralelne spolu s APEXom).

Využívanie GPU má svoje výhody. Aj keď s tým veľa ľudí bojuje a nechce tomu veriť, je GPU oveľa vhodnejšie na počítanie určitých fyzikálnych simulácií. Má totiž oveľa viac jednoduchých výpočtových jednotiek (jednoduchých z pohľadu CPU), ktoré ponúkajú oveľa väčšiu mieru multithreadingu. Takže napríklad časticové systémy (dym, voda,...) sa oveľa efektívnejšie počítajú na GPU ako na CPU. Samozrejme čím presnejšia má simulácia byť, tým náročnejšia je na výkon GPU. Preto sa robia v určitých veciach kompromisy. Napríklad simulovaná voda v Borderlands 2 nevyzerala tak dobre ako skriptovaná ale to je proste len začiatok (nevyzerala tak umelo a bolo proste vidieť že nejde o skript). Výhody real-time počítania simulácií oproti skriptom sú oveľa väčšie ako ich nároky na výkon. Objekty s takouto fyzikou totiž dokážu reagovať na podnety z okolia. Viď napríklad simulovaný dym v AC IV, ktorý reaguje na prechod postavou či na vietor. Toto na CPU nedosiahneš ani zďaleka v takej kvalite ako to ukázal PhysX v AC IV (a nielen tam). Takže áno. PhysX požaduje určitý výkon na GPU, ale nie je to len tak a zbytočné.

PhysX v starej verzii 2.x bol priamo integrovaný do herných engine-ov Unreal Engine 3 a Unity 4. Keď si všimneš väčšina hier stále vychádza na týchto starých engine-och. Potom aj každá hra, ktorá na nich stojí a podporuje GPU PhysX, využíva jeho starú variantu z pred 5tich rokov. Tým pádom nevyužíva viacero výhod, ktoré nové SDK podporuje. Takže z pohľadu používateľa sa môže zdať, že sa PhysX nepohol, ale to nie je pravda. PhysX je momentálne natívne podporovaný novými hernými engine-nami Unreal Engine 4 a Unity 5 v jeho najnovšej verzii. Každá hra, ktorá bude na týchto engine-och stáť a využije PhysX (či už v CPU alebo GPU variante) na tom bude lepšie už od základu. Či to vývojári využijú alebo nie, to je na nich.

Ešte napíšem niečo k používaniu PhysXu. Ako som už písal vyššie, nemôžeš len tak porovnávať využívanie GPU PhysX s inými API ako Havok či Bullet. CPU akcelerovaný PhysX je to čo je ekvivalentné k týmto API a je z nich využívaný najviac. Je to aj vďaka tomu, že je narozdiel od Havoku zadarmo a je k nemu rovnocenný. GPU PhysX sa momentálne nedá porovnávať so žiadnym fyzikálnym API, pretože žiadne iné grafiku na fyzikálne výpočty nevyužíva. Preto aj keby to boli 2 hry ročne, stále je to o 2 viac ako má na konte GPU Havok či GPU Bullet (dá sa na zálade toho tvrdiť, že je Havok či Bullet mŕtvy?). Momentálne je to inak už v priemere 5 hier ročne a teda tam, kde to bolo na začiatku. Porovnávať GPU PhysX celkovo s Havokom alebo Bulletom a na zálade toho tvrdiť, že je PhysX mŕtvy je úplne zcestné a skôr je to argument pre ľudí, ktorí tomu chcú veriť. Ak sa GPU PhysX prestane používať úplne, potom môžme tvrdiť, že GPU fyzika v podaní PhysX je mŕtva. To ale neplatí v čase, keď sa stále používa. TressFX sa použil v jednej hre z pred 2 rokov čo je teda oveľa menej ako GPU PhysX a nikde sa ndočítam, že je to mŕtva technológia.

Taktiež si je treba uvedomiť, že implementácia rôznych fyzikálnych simulácií (šaty, časticové systémy rôzneho typu či deštrukcia) si NVIDIA nerobí všetko sama u seba na kolene. Spolupracuje pri tom s vývojármi herných štúdií rovnako ako to urobilo AMD s Mantle či TressFX. To isté platí aj o GameWorks. Ale to už je iná téma na ďalšiu dlhú diskusiu.

Musím sa priznať, že už som celkom alergický na kategorické vyhlásenia typu "PhysX je mŕtvy" alebo "neposúva sa dopredu" či "je k ničomu". PhysX je úplne rovnaké fyzikálne API ako každé iné s možnosťami navyše, ktoré sa vďaka NVIDIi aj reálne využívajú. Načo je podpora GPU akcelerácie Havoku či Bulletu keď ich nikto nevyužíva? Otázka je, prečo majú ľudia také vysoké nároky na PhysX a také nízke na iné API. Prečo im nevadí, že ani v hrách kde sa PhysX nevyužíva, neovplyvňuje fyzika gameplay? Prečo sú spokojní so skriptami namiesto simulácií? Na to si už asi musí odpovedať každý sám. PhysX tiež nie je dokonalý, ale v jeho GPU akcelerovaná varianta nám ponúkla k videniu v hrách veci, ktoré nikto iný zatiaľ nepriniesol. Takže na aké iné lepšie "technológie" na fyziku sa odvolávaš?

já nemám předsudky já jen říkám, že kdyby physX bylo dobrá "věc" tak je v každé hře/každé druhé hře... proč tam tedy není ?

Zase tolik tomu nerozumím, nejsem schopen posoudit řádně to co píšeš - až tolik se o to nezajímám, já jen přednesl obyčejný pohled uživatele/hráče, který se zajímá o HW tak nějak rekreačně, že mě to baví... neumím do toho až tak šťourat nebo se s tebou bavit na této technicko-odborné úrovni... já jen jako obyč uživatel nevidím physX jako efektivní,využívanou věc.

pozn. měl jsem GTX460 (ano je to již "dávno":) ) při zapnutí physX ve hře (v té době byly asi 2, jenda z toho Mafia2, pak Metro) se stala hra nehratelnou, a přidalo to nějakých pár čmoudů plus nějaké vlnění látky kabátu či co (možná stopy kulek etc.) ... promiň ale kvůli těmto pár drobnostem který při detailnějším zkoumání nejsou zcela poznat na první pohled zapnutí physX způsobilo nehratelnost hry? k čemu to pak je ? ... ano zní to trošku omezeně, ale zdůrazňuji pohled hráče v podstatě laika na přínos physX (ted nepopisuji přínos pro vývoj dalších technologií atd., ten tam určitě nějaký je)

každopádně díky za vysvětlení

Z hľadiska využívania sa môže PhysX provnávať iba s Havokom. A ani ten nie je v každej druhej hre. Nehovorí to ale nič o tom ako je Havok dobrý alebo efektívny. To isté platí aj o PhysX. Jeho GPU varianta je očividne zcela závislá od NVIDIe, ktorá ho tlačí dopredu aj z pohľadu využívania. Či je to ale iba kvôli tomu, že je GPU PhysX obmedzený iba na grafiky NVIDIe je otázne. Havok s Bulletom majú tiež GPU variantu implementovanú v OpenCL, ktorá funguje na všetkých grafikách podporujúcich OpenCL bez ohľadu na výrobcu. A pritom ich nikto nevyužíva. Takže to očividne nie je iba o obmedzení na výrobcu GPU.

GPU PhysX tiež prechádza vývojom a tiež sa zlepšuje na efektivite. Napríklad pri simulácii šiat sa jeho výkon oproti starej verzii tiež zlepšil. Staré aj nové Metro stále využívalo staré PhysX SDK. Na mojej konfigurácii (GTX 780 + GTX 460 (čiste na PhysX)) tebou popisované problémy nepociťujem. Sledujem ale zo záujmu vyťaženie GPU na PhysX. Pri Metre 2033 sa GTX460 moc nevyťažovala (tak do 5%). A to ani nehovorím o tom, že táto hra je miestami nevyladená kde som aj s GTX780 mal 20 FPS tam, kde nič k videniu poriadne nebolo. Stačilo sa pozrieť iným smerom a hneď FPS radikálne poskočili (a toto s PhysXom nemalo nič spoločné). Pri Metre Last Light už to bolo iné a niekedy sa GTX460 dostávala aj na 50-60%. Bolo to ale v scénach kde sa napríklad počítala hmla a interakcia pohybu každého objektu s ňou. Takže tam by som to videl opodstatnené. Každopádne Witcher 3 by mal viac využívať GPU PhysX a hlavne novú verziu jeho SDK. Budeme môcť porovnať či a ako sa zlepšenie SDK prejaví vo vizuále hry alebo na výkone (stále totiž môže byť ušetrený výkon napríklad simulácie šiat vďaka optimalizáciám použitý na ich detailnejšie spracovanie).

no jak sám říkáš, nakonec to ani v těch hrách moc dobře nefunguje ;-) a jak dlouho to existuje? pár let... a pokrok, využívání ve hrách apod. není nikde moc vidět (reálně, ne někde na papíře)...

každopádně jsem na to v tom W3 docela zvědav... ;-)

:D takže nejdřív tu vyřváváš jak je to k ničemu a blabla a potom obrat o 180 a najednou tomu nerozumíš, nezajímáš se o to a nechápeš co ti píše. No bezva, víc takových. Ale hlavně, že tě to pobavilo lol (viz koment níže).

Funguje na úrovni implementácie. Príklad: simulácia šiat v Mafii 2. Pár mesiacov po vydaní hry sa simulácia šiat zrýchlila ak si dobre pamätám 4násobne. To bolo ale stále ešte v rámci SDK 2.x. V rámci prerábky celého SDK (ktorá sa zoficiálnila jeho verziou 3.0 v roku 2010) sa aj simulácia šiat kompletne prerobila a zmenil sa aj postup jej riešenia (http://physxinfo.com/news/10949/gdc-2013-physx-3-cloth-solver-will-add-s...). Si predstav, že na niečo také sa musí najskôr presne popísať metodika na základe ktorej to bude pracovať. Potom sa musí určiť akým spôsobom bude táto metodika implementovaná. Toto nejaký čas trvá. NVIDIA venovala prvé roky hlavne prerábke PhysX SDK a to väčšinou za behu na základe toho čo vývojári hier od nich požadovali (vývojári hier požadovali hlavne moduly APEX Clothing a APEX Destruction a ich vyladenie a zlepšenie bol teda pre NVIDIu hlavný ciel niekoľko rokov). Posledné 2 roky sa hlavne pracuje už na ďalšej nadstavbe ako je Flex či real time fracturing. Keď vyšiel PhysX SDK 3.0 v roku 2010, tak obsahoval iba časť funkcionality zo starého SDK. Až verzia 3.2 v roku 2012 sa obsahom dotiahol na SDK 2.x.

To čomu ty hovoríš že je na papíře, je už implementácia na úrovni SDK (a teda už hotová práca). Ostatné je už na vývojároch a aj na NVIDIi ako sa s nimi dohodne.

Ešte sa vrátim k Mafii 2. Špecifikom z hladiska výkonu GPU PhysX-u pre Mafiu II bola simulácia šiat. Tá sa totiž na GPU spustila iba v prípade, že mal človek dedikovanú kartu len na PhysX. Ak si aj mal zapnutý APEX v hre na high, a mal si iba jednu GPU GTX460, tak ti simuláciu šiat aj tak počítal CPU a to bola brzda výkonu (teraz by to už bolo oveľa lepšie s novým SDK). Viď http://physxinfo.com/news/3892/mafia-ii-is-not-using-gpu-for-physx-cloth.... Každopádne sa dala simulácia šiat obmedziť iba na hlavnú postavu a potom už žiadny problém s prepadmi výkonu nebol.

Zaujímavé interview s vývojármi NVIDie ohľadom implementácie PhysXu je tu:
http://physxinfo.com/news/7165/getting-gpu-physx-effects-into-games-inte...

Tu sú linky na výskumy aké sa v NVIDIi robia kvôli fyzikálnym simuláciám (iba malá časť):
http://physxinfo.com/news/10572/physx-research-position-based-methods-fo...
http://physxinfo.com/news/10296/physx-research-fast-simulation-on-inexte...
http://physxinfo.com/news/9098/physx-research-mass-splitting-for-jitter-...
http://physxinfo.com/news/9022/physx-research-mass-conversing-liquids-an...
http://physxinfo.com/news/6621/physx-research-oriented-particles-solver-...

Ako vidíš je toho dosť a aj keď sa to nemusí zdať, vývoj PhysXu po implementačnej stránke postupuje ďalej (či už z hladiska nových features alebo efektivity z pohľadu výkonu). Nie všetko z hore uvedeného sa aj reálne implementuje, ale všetko stojí dosť práce a času (a to nehovorím o peniazoch).

LOL... physX pobavil :D

Proč na straně 2. Testované grafické karty, chybí screen (z GPU-Z)karty Geforce 760 GTX, když je karta v testu? To už je druhý článek, kde je karta testovaná a chybí u ni screen parametrů z GPU-Z.

Díky za upozornění, doplním (prostě jsme na ni v záplavě screenshotů zapomněli).

Páči sa mi stránkovanie diskusie. Len by sa pri prepnutí na inú stránku mohla stránka automaticky posunúť na začiatok časti s diskusiou.

Každopádně tahle recenze (test), na to jak se na ni dlouho čekalo, je příšerná. Příště proboha otestujte pořádně procesory a pořádně karty tak, jak hráči hrají a vykašlete se pořád na nějaké rozdíly ve "funkcích" nV vs AMD, o tom to snad taky je ne? Nebo myslíte - příklad - že člověk, který si koupí nVidii vypne HBAO jen proto, že konkurence to nemá? Hlavně že, jak už jsem psal, se tu drbete s totálníma nesmyslama typu tahle karta žere o 1W na fps víc, než ta druhá.

Reklama
Reklama