Reklama

Lukáš Fiala

Příspěvky uživatele

Stránky

Ty jsou tam proto, aby se v nich podržel obraz a mohl se znovu poslat na monitor, pokud karta včas nedodá nový. To samé ale může zajistit i karta.

Tohle já vím, však jsem o tom tehdy psal: http://www.cnews.cz/nvidia-komentuje-freesync-diky-za-lichotku-ale-neni-...
Ale podle PCPer nyní nVidia tvrdí, že modul G-sync má nějaké další, momentálně utajené funkce. Což by nasvědčovalo tomu, že dělá něco navíc, než co umožňuje standardní eDP/Adaptive Sync. A to, co nevíme, je, jestli "to navíc" lze adekvátně vyřešit na straně ovladačů.

Samozřejmě, že smysl má (v tom významu, že to není jen "security chip"), už proto, že v době jeho vzniku Adaptive Sync na desktopových monitorech neexistoval.

Princip fungování mobilního G-syncu je ale totožný s FreeSyncem/Adaptive Sync. "Některé nedostatky" možná ještě budou odstraněny vylepšením ovladačů. Recenze FreeSync a mobilního G-sync pak ukážou, jestli má modul G-sync smysl.

Prozradíte nám, kdy jsme novinku měli objevit, když článek na PC Perspective vyšel včera?

Ne. nVidia udává rychlost paměťových čipů, tj. 7 a vylhaných 9,3 Gb/s. Ekvivalentem tohoto čísla u SSD by byla frekvence NAND Flash čipů, která se běžně neudává, a když, tak se nenásobí žádnou bulharskou konstantou kvůli kompresním algoritmům řadiče.

Kdyby nVidia udala teoretickou propustnost celé sběrnice (tj. např. 112 GB/s u GeForce GTX 960) a pak napsala, že díky delta kompresi karta za jednotku času přenese stejný objem textur, jako Kepler s teoretickými 150 GB/s, tak by to bylo v pořádku. Údaj označený jako "efektivní rychlost" ale žádné takové vysvětlení nepodává, je zveřejňován jen pro zmatení zákazníků.

I keby priepustnost hned uvadzali, tiez to mozu zvalit na "typicke data" a teda, ze kompresiou sa tolko dosiahnut da.
Nemůžou a nedá. Kompresí se dosáhne úspornějšího využití propustnosti sběrnice, fyzicky ale nebude rychlejší, než co je dáno frekvencí. S SSD se to nedá srovnávat, tam ideální komprimovatelná data opravdu budou vykazovat vysokou rychlost. A takové odrby, jako že si nVidia vycucá propustnost pamětí z prstu, fakt nikdo jiný nedělá.

Nie je nikde napisane, ze ma 4GB pripojene kompletne po 256 bitovej zbernici.

Je. nVidia udává propustnost pamětí 7 Gb/s, což je odvozeno od šířky 256 bitů a efektivní frekvence GDDR5. Ale karta reálně není schopná dosáhnout propustnosti, která by šířce sběrnice a taktu odpovídala, protože dokáže naráz využít maximálně šířku 224 bitů. - moje chyba. propustnost celé VRAM uvedena není.

Zatímco v případě ROP jednotek se mohli splést, o specifické konfiguraci paměťového řadiče museli vědět a skutečnost přiznali až ve chvíli, kdy si uživatelé začali všímat propadů výkonu při zaplněné paměti.

Navzdory tomu bych ale být majitelem kartu nevracel. Kdybychom neznali ty podrobnosti a přišlo se na to, že karta v určitém vzorku her nebo nastavení podává horší výsledky, než bychom očekávali podle výsledků sesterských modelů a konkurenčních karet, pokrčíme nad tím rameny, přisoudíme to na vrub architektuře čipu a nebudeme to rozpitvávat.

Na druhou stranu si za tu bouři ve sklenici vody nVidia v plném rozsahu může sama. Kdyby na GTX 970 dala 3,5 GB paměti na 224bitové sběrnici, na výkonu by to prakticky nebylo poznat a nikdo by neměl důvod si stěžovat.

Známý je až až, ale při fulltimovém zaměstnání stěží stíhám sledovat novinky, natožpak abych stíhal číst, co kde napíše kdejaký amatérský novinář :(

To je dost těžký. High-end na A10 bude případ dobrý leda pro demonstraci, protože to tak skoro nikdo reálně provozovat nebude. (A jak určitě chápeš z mých příspěvků výše, jsem proti testování "pro maximální efekt", aby se to či ono mohlo ukázat v dobrém světle.) K mainstreamovým grafikám zase málokdo bude mít Core i7, jenže A10 je pro kartu za 5-6 tisíc pořád dost slabé a zavádět si do metodiky další procesor a mít neporovnatelné výsledky taky není dobrý nápad. Tady by proto bylo obhajitelné v nějaké obvyklé konfiguraci mít pár výsledků "stranou", nicméně momentálně je těch her s Mantlem tak málo, že testování na i7 asi nikomu žíly netrhá (nebo jo?).

Já přece neříkám, že se PhysX nemá testovat. Změřit, jak náročná je fyzika v dané hře, jaký propad framerate její zapnutí způsobuje a na jakých kartách je to tím pádem hratelné, je zcela validní scénář. Ale jen pro GeForce. Nepovažuji za validní scénář testovat s pokročilou fyzikou i Radeony, kde to pak jede v jednotkách fps, to je nesmyslný (nikdo to tak provozovat nebude) a matoucí test (protože výkon v takovém případě závisí hlavně na CPU, které fyziku nestíhá počítat).

No a naopak, pokud by bylo možné jednoduše testovat Mantle (což momentálně možné není, viz MJ níže), není důvod jej testovat "mimo soutěž", neb je naopak nesmyslný scénář, aby někdo hrál v Direct3D, když se může přepnout do Mantle a při stejné kvalitě získá vyšší výkon.

Nevšiml jsem si, že by třeba Škodovka prodávala 1.2 TSI jako motor s "efektivním objemem 2 litry", přestože díky turbodmychadlu a technickým pokrokům motor může být srovnatelný s atmosférickými dvoulitry z doby před 15 lety. Nedělá to tak nikdo ani v automobilovém, ani hardwarovém průmyslu, není to ani náhodou "zcela běžné přirovnání". To jen dokládá, jak bizarní ten údaj 9,3 Gb/s je. Informace, že paměťová architektura je o 33 % efektivnější než u Kepleru, se dá uvést i bez zavádějícího údaje o propustnosti v Gb/s. Ten tam neslouží k ničemu jinému, než aby potenciální zákazníky uvedl v omyl.

Aha, díky za osvětlení.

Protože takového člověka nezajímá ani tak reálný výkon, jako hlavně potvrzení, že dobře nakoupil. A kde lépe výkon GeForce zazáří, nežli v nastavení, které na veškeré konkurenci způsobí nehratelné framerate?

Stránky

Reklama
-->