
Na včerejšek AMD
přislíbilo, že poprvé zveřejní něco o nacházející
grafické architektuře Vega, kterou tento rok uvede. Jak už odhalil
(dost možná řízený) únik
v pondělí, firma toho nakonec ukázala docela dost,
ačkoliv je asi ještě dlouho do reálného vypuštění nových GPU
(které má být „někdy v první polovině roku“, ale asi
ne v nejbližší době). Stále však jde jen o předběžné
„preview“, nedozvíte se tedy nic podobného specifikacím nebo
informacím o výkonu – jen něco o technologiích,
které v novém GPU budou.
Na úvod je tu zásadní zjištění:
Vega je velkým předělem ve vývoji grafické architektury Radeonů,
mnohem výrazněji než Polaris. Ten se také obvykle považuje za
novou architekturu, jelikož změny v jeho GPU nejsou úplně
triviální. Nicméně uvnitř Polaris výrazně vychází
z předchozích generací architektury GCN, která měla
premiéru už koncem roku 2011 v GPU Tahiti, a přes
provedené
optimalizace je údajně dokonce kompatibilní s Fiji po
stránce instrukční sady, která bývá jinak mezi GPU poměrně
často měněná (protože je od programátora oddělena ovladačem).
Vega má proti tomu být fundamentálně odlišnější, ačkoliv
evoluční kořeny v GCN bude mít nepochybně silné, jelikož
nejde o koncepci vytvořenou od základu nově na zelené louce.
Compute Unit nové generace
Základem této nové architektury jsou
nové výpočetní jednotky („shadery“), které byly až po
Polaris silně „tradiční“ a vycházející z původní
architektury GCN. Vega bude založená na blocích „CU“ (Compute
Unit) nové generace, což je význam, který se schovával za již
dříve se objevivším buzzwordem „NCU“: Next Generation Compute
Unit.
Pro připomínku: odrůdy GCN používají
CU složenou ze 64 stream procesorů (shaderů), které provádějí
výpočty s 32bitovou přesností (FP32, k tomu pak ještě
navíc GPU může v různém poměru umožňovat i výpočty
s dvojitou přesností FP64, což zde budeme ignorovat). Vega
bude mít strukturu podobnou – jednu CU tvoří opět 64
shaderů, z nichž každý provede dvě 32bitové operace za
takt jako v GCN (takže CU za cyklus zvládá 128 operací
v FP32), takže teoretické TFLOPS čipu s daným počtem
CU a taktem zůstanou stejné. Dokonce by mělo být zachováno
i to, že CU (oněch 64 stream procesorů) je členěná po
šestnácti jednotkách do čtyř SIMD elementů.
Ovšem nová výpočetní jednotka bude
podstatně pružnější. Umí nejen operace v FP32, ale
i 16bitové výpočty (což
už uniklo) s dvojitým výkonem. ALU tedy dokáže místo
jednoho výpočtu s 32bitovou hodnotou alternativně vykonat dva
16bitové najednou. Ale nejen to, architektura zároveň umí i ještě
jednodušší výpočty osmibitové (tentokrát už ale nejde
o hodnoty typu floating-point, ale o INT8, tedy
celočíselné). A osmibitovou matematiku dokáží jednotky
opět zpracovávat dvakrát rychleji, tedy již čtyři operace místo
jedné. Pokud tedy nepotřebujete přesnost FP32, můžete z GPU
Vega dostat dvou či čtyřnásobný výkon. Toto je významná
inovace architektury Pascal, kterou Nvidia úspěšně používá pro
nasazení ve strojovém učení, kterému stačí nižší přesnost.
Vega by zde tedy teoreticky mohla srovnat krok a vytvořit
konkurenci pro Tesly
P100.
FP16: důležitá funkce pro hry
budoucnosti?
Tato flexibilnost je tedy potenciálně
důležitá pro výpočetní nasazení. Ovšem bude užitečná také
pro herní výkon? To zatím nelze říct s jistotou. Například
GPU PlayStation 4 Pro již 16bitové výpočty podporuje
a počítá se s tím, že je vývojáři budou moci použít
pro zvýšení hrubého výkonu. Bude to záviset na opatrné
optimalizaci, hry totiž tradičně používají přesnost FP32
(potřebuje ji zejména geometrie, vertex shadery, kde by
zaokrouhlování a ztráta přesnosti vedla k problémům). Pokud
ovšem ve hře najdete operace, které nepotřebují tak vysokou
přesnost a ručně pro tyto operace zvolíte provádění
v FP16, získáte výkon navíc. Výpočty v FP16
mimochodem často využívají GPU a hry na mobilních platformách
(ARM), takže precedent pro jejich aplikaci tu je.
FP16 tedy asi bude užitečné pro
optimalizování výkonu a GPU, které tyto výpočty budou
podporovat, mohou mít časem v nových hrách mít velkou
výhodu proti starším, kdežto ve starších hrách tento rozdíl
neuvidíte. Ovšem to závisí na tom, zda budou vůbec herní modely
mít tuto podporu zapnutou – je možné, že může být
zamknutá a přístupná jen na drahých výpočetních kartách.
Tak je tomu pokud se nepletu u grafik GeForce s čipy
Pascal (GP104 má snad jen velmi pomalou podporu přímo v hardwaru).
Naproti tomu výpočty v INT8 asi ve hrách užitečné nebudou,
hodit by se mohly snad jen pro práci s obrazovými daty nebo
filtrování videa, ovšem i tam bude jejich užitečnost
omezena, jelikož se pomalu rozmáhá HDR a vyšší bitové
hloubky. 8bitové výpočty tedy budou zásadní hlavně pro onu
umělou inteligenci a tak podobně.
Vyšší IPC i takt
I pokud by ale hra běžela
postaru a všude používala 32bitovou matematiku, Vega by stále
měla mít při stejném počtu CU/shaderů lepší výkon. AMD
údajně potvrdilo, že samotné výpočetní jednotky mají
dosahovat vyššího reálně vyprodukovaného výkonu při stejném
taktu (mají tedy lepší „IPC“), jinými slovy, GPU Vega by při
stejném ratingu v TFLOPS mělo být ve hrách rychlejší než
papírově (v TFLOPS) stejně silný Polaris či starší GCN.
Nicméně pozor – není úplně jisté, že v tomto není
započítáno i použití FP16 a že se IPC zvyšuje i bez
jejich použití, tedy při srovnání FP32 versus FP32.
Kromě lepšího IPC by ale zároveň
CU měla být stavěná také na vyšší takty, což se v posledních
letech ukázalo jako významné omezení architektury GCN. Ta byla
stavěná na takty spíše někde okolo 1 GHz, takže třeba
Hawaii a Fiji (a aktuálně také Polaris 10, kde je to asi
nejevidentnější) nemohly škálovat výš. U Vegy bychom tedy
měli vidět vyšší frekvence jádra, i když asi ne tak
vysoké, jako u Pascalů. Radeon Instinct MI25 s čipem
Vega 10 a TDP jdoucím k 300 W má
zřejmě takt někde okolo 1500 Mhz.
Vyšší efektivita ve využití
dostupných prostředků – a tím také vyšší IPC –
se nemají týkat jenom samotných shaderů, ale i další
infrastruktury. Vega má mít vylepšenou schopnost rozkládat práci
mezi jednotlivé části čipu. Její „Inteligent Workgroup
Distributor“ by měl být flexibilnější, než dosavadní čipy
GCN, nemáme však bližší podrobnosti.
Programovatelnější geometrie
Významně by mělo být posíleno
zpracování geometrie, což jsou výpočty probíhající před
texturováním a pixel shadery. Podle AMD má nová
programovatelná pipeline Vegy mít až dvakrát větší geometrický
výkon na stejném taktu. Web AnandTech v poznámkách pod čarou
objevil zmínku, že „čtyři geometrické enginy“ (což je
stejné jako u Fiji) dokáží celkem zpracovat až 11 polygonů
z cyklus. Tam, kde byl celkový výkon limitovaný geometrickými
operacemi, by tedy Vega mohla ve výkonu hodně poskočit dopředu.
Geometrické pipeline také umí nový
druh operace, tzv. primitive shader (čímž se nemyslí, že by byl
primitivní, ale že operuje s tzv. geometrickými primitivami).
Ten může běžet během zpracování geometrie jako vertex
a geometry shadery a údajně by měl umožňovat včasnou
eliminaci primitiv, které není třeba počítat, jelikož nemají
vliv na viditelnou scénu, jsou skryté či jinak nepodstatné.
Jejich včasné odstranění z výpočtů šetří výkon
v dalších fázích, zvlášť když je geometrie scény silně
přebujelá. Primitive shader je zdá se univerzálnější
a programovatelnější způsob jak pracovat s geometrií,
jejíž zpracování je v grafické pipeline tradičně fixní,
a měl by se snad svými schopnostmi podobat compute shaderu.
Jeho použití by mělo tyto operace dle AMD zefektivnit.
Primitive shader pravděpodobně nebude
používán automaticky ovladačem (skrze kompilaci kódu, kterou
provádí), ale bude nutné, aby pro něj programátoři aktivně
psali kód, nebo využívali knihovny, které jej aplikují (tedy
třeba kód poskytovaný AMD v rámci GPUOpen jako je TressFX).
Je dokonce možné, že primitive shader bude vyžadovat podporu
přímo ze strany API DirectX/Vulkan/OpenGL – uvidíme.
Tiled rendering?
Také v oblasti rasterizačních
jednotek („pixel engine“) a práci s nimi bude Vega
radikálně předělaná. AMD uvádí jako jednu z novinek
architektury „Draw Stream Binning Rasterizer“, který by zřejmě
měl zřejmě rasterizovat scénu (a provádět pixel shadery)
postupně po dlaždicích, do níž si ji rozdělí. Cílem je, aby
se data potřebná pro zpracování aktuální části obrazu dala
uložit a brát z cache přímo v GPU a nemuselo
se při této práci chodit do grafické paměti, což trvá dlouho
s je náročné jak na propustnost, ale také na spotřebu
energie. Využití a velikost dlaždic by zdá se dokonce mohly
být adaptivní, aby se cache využila optimálně.
Možná si vzpomenete, že podobně
to údajně dělá Maxwell a Pascal od Nvidie, čemuž snad
vděčí za část své úspornosti a relativní nenáročnosti
na paměťovou propustnost. Opět však nemáme prakticky žádné
detaily, takže nemůžeme tyto přístupy srovnat a zhodnotit
nebo s určitostí říci, jak vše bude fungovat.
Hlad GPU po paměťové propustnosti má
omezit ještě jedno zlepšení, tentokrát na úrovni jednotek
Render back-end (ROP). V předchozích architekturách podle
webu AnandTech přistupovaly do paměti, kdežto Vega jim zdá se
dává možnost využívat L2 cache čipu, čímž se část provozu
ušetří, pokud budou potřebná horká data rezidentní v této
mezipaměti. Toto pomůže při technice „deffered shading,“ kdy
ROP kreslí nikoliv do framebufferu, ale do textury, kterou pak
grafická pipeline znovu využívá.
Compute Unit nové generace
Paměti HBM2 jako cache v hierarchii, škálování a první křemík na fotkách
Jak je již dlouho známo – nebo
alespoň předpokládáno – Vega používá paměti HBM2, a to
(jak brzy uvidíte) celkem dva čipy, což jí dává 2048bitovou
paměťovou sběrnici, a propustnost 512 GB/s při
udávaném efektivním taktu pamětí 2,0 GHz. Kapacita těchto pamětí může
být až 8 GB na čip, takže v použité konfiguraci
s dvěma čipy na křemíkovém interposeru dostanete kapacitu
až 16 GB, nicméně s menšími čipy můžete implementovat
i verzi s 8 GB RAM, což je
zdá se případ prototypových karet, které AMD zatím
předvedlo.
Použití HBM2 bude ovšem
komplexnější, než v první generaci GPU Fiji. AMD tuto paměť
nenazývá přímo „grafická paměť“, ale „High Bandwidth
Cache“, což implikuje, že na ni pohlíží spíše na jednu
úroveň v hierarchii pamětí, do nichž má GPU přístup. GPU
Vega by tedy možná mohlo používat i další úrovně –
například velkokapacitní prostor tvořený pamětí NAND, jak to
experimentálně dělá Radeon
SSG, jehož komerční verze patrně bude založená na čipu
Vega. Jaké přesně ale tyto schopnosti budou, zatím nebylo
odhaleno, takže bych zatím očekávání držel při zemi –
nemáme žádné indicie a není to asi pravděpodobné, že by
čip třeba podporoval připojení ještě pamětí DDR4 či GDDR5
jako Xeony Phi.
Těmi dalšími úrovněmi paměti
totiž kromě NAND asi budou spíše prostředky sdílené. AMD
uvádí, že jeho „High Bandwidth Cache Controller“ počítá
s komunikací s nevolatilní pamětí (případ onoho
Radeonu SSG), s operační pamětí hostitelského
počítače/procesoru, či s úložištěm někde v síti.
Z těchto důvodů Vega podporuje adresní prostor až 512 TB.
Paměť HBM2 pak pro tyto zdroje dat vystupuje jako ona
vysokorychlostní cache. Smyslem je, aby GPU mohlo pracovat
s obrovskými soubory dat, což by jen se spolehnutím na
vlastní paměť nemohlo. Ačkoliv dnes GPU mají až 32 GB paměti,
stále je to málo.
U Vegy se tedy počítá s o dost
komplexnějším přístupem k „paměti“, nicméně to vás
asi nemusí trápit, pokud se o toto GPU zajímáte jako o herní
kartu. Podobné problémy „škálování“ přijdou ke slovu až
při výpočetním a enterprise nasazení těchto GPU. Nicméně
vylepšená schopnost nechávat si rezidentní jen důležité částí
souboru dat a ty málo využívané nechat třeba v hostitelské
paměti by mohla přijít vhod také ve hrách, které mají příliš
vysoké nároky na paměť. Radeony Vega by teoreticky mohly mít
menší problémy v konfiguracích s ořezanou kapacitou.
Čip poprvé před kamerou
Tím uzavíráme okruh informací
(zatím hodně omezený a skoupý na detaily), který AMD o své
nové grafické naději včera uvolnilo. Tedy alespoň teoretickou
část. Zároveň totiž šéf grafické divize Raja Koduri ukázal
i hotový křemík zřejmě čipu Vega 10, a to veřejně před novináři, takže
máme k dispozici řadu vcelku slušných fotek.
Fotografie čipu Vega 10 (Zdroj: The Tech Report)
Můžete vidět, že jde opět o hodně
velké pouzdro s křemíkovým interposerem a přirozeně
s HBM2. Nicméně důležitý detail je, že paměťové čipy
jsou skutečně jen dva proti čtyřem, které nese Fiji nebo Nvidia
GP100. Tudíž je definitivně potvrzena propustnost 512 GB/s (za
podmínky, že AMD použije 2GHz frekvenci). Hrubá propustnost Vegy
tedy bude stejná jako u Fiji a čip se bude muset
spolehnout na výše popsané technologie, které využití pásma
zlepšují (kromě uvedeného by měl rovněž mít dokonalejší
delta kompresi než Fiji, což také pomůže).
Fotografie čipu Vega 10 (Zdroj: ComputerBase)
Všimněte si, že zatímco u Fiji
byl hodně vidět holý neobsazený interposer. Tentokrát čipy HBM2
poměrně přesně sedí na stranu samotného GPU, takže plocha
interposeru nevychází nazmar. Díky jen dvěma čipům je
interposer přirozeně také menší. Celek by tedy výrobně měl
být méně náročný a drahý. Interposer je vlastně velký
čip, který se vyrábí křemíkovou litografií, byť starší a
levnou, a je tudíž mnohem dražší než běžný substrát nebo
PCB. S menším interposerem a méně čipy budou náklady
nižší, než na Radeon R9 Fury/Fury X. Tedy pokud odhlédneme
od ceny samotného 14nm FinFETového GPU, která může být vyšší
a úspory přebít.
Jelikož fotografie jsou poměrně
kvalitní, zkusil redaktor webu VideoCardz odhadnout velikost čipu.
Ten by soudě dle velikosti čipu HBM2 mohl mít velikost
520–540 mm², přirozeně za předpokladu, že pouzdra
s pamětí jsou stejná. Ten nicméně nemusí nutně platit,
AMD totiž má používat HBM2 od Hynixu, zatímco Nvidia by mohla
mít paměti od Samsungu. Obě firmy by přitom mohly mít pouzdra
mírně či více odlišné, takže odhad berte s rezervou.
Ovšem je-li tato plocha reálná, pak by výkon čipu mohl být
hodně slušný, jelikož obvykle škáluje s plochou a cokoliv
nad 500 mm² je už bezpečně ve sféře highendových GPU,
která mají strop někde u 600 mm².
Vega 10 v odhadovaném srovnání s dalšími highendovými GPU (autor: VideoCardz)
Soutěž o Vegu
Mimochodem – na webu
Ve.ga AMD přidalo nová videa a prezentační obsah. Mimo
jiného se tam můžete přihlásit do soutěže, v níž mají
být dvě karty s novými čipy jako ceny (až je AMD vydá).
Jde o klasickou losovačku, takže při celosvětové účasti
asi člověk nemá nijak významnou šanci, ale můžete si zahrát,
pokud máte rádi Cimrmanovskou frustrační kompozici (tvořenou
fází očekávání a fází zklamání). Je třeba jen
zodpovědět na pár otázek, tázajících se na detaily z onoho
„bubnového“ propagačního videa.
Zdroje: AnandTech,
The
Tech Report, VideoCardz, AMD,
Ve.ga
kopa zbytocnych kecov, dajte sem vysledky tolko a tolko fps v tej a tej hre, taka a taka spotreba. Potom to porovname s 1080, ked bude vysledok ze vykon = 1,5*1080, spotreba = 0,x – 1*1080, tak bude dobre. Ale co ma znamenat ta poznamka o karte s 300W a 1500MHz???? ved to je 1,7*1080, uplne nepripustne.
Porovnání jako takové bude dost dlouho trvat, protože fakt je rozdíl mezi architekturama a určením, optimalizací.
O té kartě 300W se píše tuším o Fuji? To tam je také několikrát napsané.
Jestli Vam jde o FPS tak jste nic poradne necetl. Takze klid. Nejdriv si prectete nejake informace z predvadeci akce a taky treba neco na twitteru a pak tady hazejte spinu.
jakou špínu? To jste opravdu natolik postižen? Nechtěl bych být vaším dítětem …
ten komentar nieje namiereny proti autorovi clanku ale proti AMD! Nieje to ziadne hadzanie spiny ale jednoduche konstatovanie. Mna nezaujima ze zvysili vykon v xyz hocicom, mna zaujima ze doom 1920×1080 ma xyz FPS a spotreba je abc W. Dalsi dolezity ukazovatel je, ze asus strix stoji fgh€.
omg roob fy si nepochopil o com je tento clanok 🙂 na info ohladom spotreby a fps si pockas do vydania a prvych recenzii…podla tvojej reakcke hore a toho ze si clanok necital usudzujem ze este chodis tak max na strednu a tento clanok este neni pre teba 🙂 ale aby si sa nehneval, a ak si daco aspon cital tak ti poviem ze spotdeba bude pod 300w a doom v 4k utiahne na 60-70 fps s procesorom Ryzen 🙂
V clanku se nekolikrat pise neco ve smyslu „AMD pridalo feature X, kterou Nvidia uvedla v generaci Maxwell/Pascal“, od tile-based renderingu az po podporu Int8/FP16 – tolik k udajne „pokrocilosti“ architektury GCN 😀
Vzpominate, jak jsem asi tak 2-3 mesice nazpet psal, ze jestli chce byt AMD konkurenceschopne, musi se zastarale GCN zbavit? A jak se na me AMD trollove sesypali, jak je GCN skvela a uzasna? 😀 A ted to tu je a mel jsem pravdu – AMD zahodilo GCN a dela radikalne novou architekturu a doplnuje features, ktere ma Nvidia uz dve generace. Co na to tynyt, del42sa, warda, skaven123 a ti dalsi kluci usati cerveni? Nestve vas, ze znam AMD lip nez vy? 😀
že jenom ukazuješ to, že jsi opravdu poměrně primitivní a ke štěstí ti stačí pocit, že jsi měl pravdu :-)) Ovšem dal bych velký důraz na to slovo „pocit“
Promin, ale i tobě muselo být jasné, že skoro 5 generační obnovovaná architektura musí se celá změnit.
Jsem fan AMD, ale i mě je jasné pokud chce přežít, tak musí znovu a nenavazovat.
No tak třeba mně to „jasné“ není vůbec. Ta architektura je hodně flexibilní, nemá zásadní nedostatky a její návrh je dle mého názoru velmi dobrý.
Vo výsledku je to aj tak jedno, 95%+ hráčov aj tak absolútne a totálne nezaujíma architektúra a podobné technické finesy ale len herný výkon.
To či bol dosiahnutím inovovaním 5r starej architektúry alebo ťahaním taktov k 2GHz je šum a fuk.
Hráči to opravdu neřeší. Ale AMD má v tomto ohledu docela luxusní pozici a poslední rok se to projevuje zejména v kvalitě ovladačů. Zatím co drivery AMD jdou jednoznačně nahoru, jak obsahem funkcí, tak 0-day funkčností, u nvidie docházelo minimálně poslední rok k vydávání driverů, jejichž kvalita byla velmi diskutabilní. I to je důsledek držení se GCN, které je ve všech podstatných konzolích a většina vývojářů už prostě AMD neignoruje jako dříve, naučili se s tím pracovat.
Další bod je mé oblíbené HSA, kde vidím velké příležitosti do budoucna, a tam platí, že udržet architekturu alespoň v základních rysech je taky velmi vhodné a efektivní.
Když to vezmu podle sebe, já si můžu hrát tak maximálně 3-5 hodin týdně, zbytek mi zabere práce, kde (opět) mám dlouhodobě lepší zkušenosti s AMD (už od dob starých Rage, které donedávna ještě sloužívaly v serverových deskách spolu s Matroxy coby onboard grafika propojená na iDrac/BMC). Pár nvidií jsem měl a prostě mi nesedly, často generovaly neřešitelné problémy. Takže já grafiky nekupuju jen kvůli hraní, ale taky podle toho, jak fungují v desktopu v pracovním nasazení. A tím je můj pohled trochu jiný, než u běžného gamesníka, který honí jen gamesky.
Jeste stesti, ze samo AMD to vidi jinak nez ty a rozhodlo se GCN zahodit a ponechat z ni jen par zakladu 🙂 Ale po tom fiasku, co jsi predvedl s nepochopenim Geforce Now, protoze ve skutecnosti nema byt v zadnem pripade nahradou desktopoveho hrani, se ani nedivim, ze ti unikaji dalsi a dalsi veci.
Dlouhodobe mas lepsi zkusenosti? Vazne? Vzdyt jsi amater, ne profesional, ktery ma dost omezene znalosti, vzhledem ke tvym postum za velmi dlouhou dobu.
Cim to asi je, ze v profesionalni sfere ma Nvidia dlouhodobe jeste vetsi podil, nez v herni – pres 90%? Jednoduse tim, ze funguje vsude lepe, vcetne Linuxu. U hracu se ten podil da treba okecavat fanouskovskou zakladnou, i kdyz je to v zasade taky nesmysl. Ale u firem, ktere jdou dnes tvrde za pomerem prinos/cena to uz vazne okecat nejde.
Shrnuto – vetsina profesionalniho sveta ma lepsi zkusenosti s Nvidii, jen tynyt je letadlo 😀
Maudit: malé péro a panic = velký komplex 😀
„Cim to asi je, ze v profesionalni sfere ma Nvidia dlouhodobe jeste vetsi podil, nez v herni – pres 90%?“
Čím to, že se v době souboje Athlonu 64 a Pentia 4 více prodávalo Pentium 4? Spousta důvodů, žádný moc pěkný…
tak tak! AMD si mohlo marketingove kecy nechat akcionarom, nas zaujima vysledok. Len aby nebol taky, ze tu sme zvysili vykon o 300%, tam sme zvysili o 200% spotrebu sme znizili na vykon o xy% a ked pridu na rad testy bude to pomalsie ako 1080 s 300W TDP…
Mě to například zajímá, vidím jak je takový čip velmi „vymakaná“ a složitá věc, Vás pane když to nezajímá, tak to nečtěte.
Takhle to teď dělá Intel, u Skalyke skoro vůbec nic neřekl k tomu, co v těch čipech změnil. Ale neznamená to, že by „marketing“ držel klapačku, prostě se jen plácá o jinejch věcech – jak budou drony dronovatější, iot o 50% víc iot a doma bude všecko řídit umělá inteligence, která vám automaticky pošle vrtulník na podržení mobilu, když se chcete v koupelně vyfotit na facebook 🙂
Třeba Goldmontu neřekl vůbec nic, a to je to eviedentně archtiektonicky hodně změněné jádro. Já teda preferoval minulost, když se těmi změnami uvnitř chlubili.
Souhlas. Ale ono to dava smysl, zamerit marketing jinam. Proc investovat tolik penez, kdyz v dane oblasti drtive vedou a na existenci konkurence uz ostatni skoro zapomneli? Staci si udelat pruzkum, kolik lidi (ne jen hrstka ajtaku) si pamatuje AMD a jejich procesory. Intel muze drzet svuj CPU marketing skoro na nule, dokud AMD ten svuj nerozjede.
Otázka je koľko rešeršistov sa o Goldmount zaujímali lebo všetky materiály (informácie) majú dostupné na ich webe: Intel® 64 and IA-32 Architectures Optimization Reference Manual – CHAPTER 14 SOFTWARE OPTIMIZATION FOR GOLDMONT AND SILVERMONT MICROARCHITECTURES
source: https://software.intel.com/sites/default/files/managed/9e/bc/64-ia-32-architectures-optimization-manual.pdf
Možno si to nechávajú pre Denverton platformu s 8 ~ 16 Goldmont cores
link: http://www.cnews.cz/sestnactijadrovy-atom-c3000-na-fotce-pry-jiz-ma-novou-architekturu-goldmont
Prvá dualcore vlaštovka je už vonku
source: https://ark.intel.com/products/codename/63508/Denverton#@Server
Jo, manuál je pro to dostpuný už možná tři měsíce (nevím přesně), ale popravdě teda to je trošku nad moje schopnosti, vyčetl jsem třeba z té tabulky instrukcí tak maximálně ře je to zdá se už aspoň z části 3-issue jádro a to je tak všechno.
To je právě to – oni to netají, oni o tom jádru prostě jenom nemluví. Nevím jestli jim při posuzování Goldmontu vyšlo, že by neměl úspěch v mobilech, tak teď na něj mají pifku, nebo nechcou vracet pozornost na to, že zapíchli ty čipy určené pro telefony… a proto ani pořádně nemedializovali launch Apollo Laku…
Tak je tam toho viac ako len 3-issue oproti 2-issue Silvermontu a vlastne aj 2-issue AMD Jaguar a Puma.
Keď si zvládol tieto články tak nemám obavy, že by si to nedal, veď to nieje žiadna veda a všetko je to tam krásne popísané len to chce čas, ktorý… 🙂
http://www.cnews.cz/intel-odhalil-architekturu-silvermont-prevrat-na-nejz-musel-atom-cekat-pet-let
http://www.cnews.cz/amd-na-issc-2013-hovorilo-o-architekture-jaguar-mame-kompletni-slajdy
K druhej časti… má logiku tá teória… možno to bude aj tým, že nabušenejší len 14nm Goldmont aj voči 14nm Airmontu die schrink 22nm Silvermontu nemôže na 14nm jednoducho v telefónoch a tabletoch energeticko/efektívne konkurovať.
„Musí se celá změnit“ asi tak, jako Intel už deset let vyvíjí svá CPU evolučně? OK…
Lenže Intel nič netlačí do toho aby vyvýjal novú architektúru. Mal konkurenciu od prvého CPU s Conroe architektúrov? Nemal. To isté u grafík. Tam si nVidia riadne našlapla do tempa a posledné tri-štyri generácie sa jej náramne podarili. Preto AMD nemôže len „štelovať“ architektúru ale musí ju poriadne pomeniť.
nu, ti to neuznají ikdyby to prohlásila CEO AMD :))
moderní byla GCN v době Tahiti, jenže pak začly docházet peníze, tak se snažili optimalizovat to co už bylo.
A co tedy podle tebe dělá nvidia? Maxwell byl trochu nedochůdče, tak jej museli pro Pascala „opravit“ po vzoru GCN, aby aspoň trochu zvládal DX12.
Tys asi žádnou GCN grafiku v životě neměl, protože rozdíly mezi GCN1.0 a poslední iterací jsou docela velké, nicméně, a to je pozitivum platformy GCN, základ je totožný. Tím lze velmi dobře podporovat starší architektury, a tak si uživatelé prastaré HD7970 mohou užívat efektivního výkonu v DX12, ta karta je prostě stále použitelná, a to i v nových API. Narozdíl od GTX680, která má podporu pouze na papíře, v reálu se propadá.
Tvoje tvrzeni o Maxwellu jako nedochudceti bylo prave uspesne vyvraceno. Nebo je to nahoda, ze prave featury z Maxwella nyni AMD implementuje do Vegy? Nebo je nahoda, ze Nvidia zvlada podavat s Maxwellem mnohem lepsi vykon pri mnohem mensi velikosti cipu? Na jedne strane tvrdis, ze GCN dela veci hrubou silou, oproti pokrocilym optimalizacim Maxwellu/Pascalu, na druhe strane tvrdis, ze GCN je pokrocila a ne zastarala? To je totalne k smichu 😀 Zadna architektura, ktera dohani sve nedostatky hrubou silou a klidne o 30% vetsim cipem, se neda nazvat pokrocilou. 😉
A koho zajima, ze HD7970 dokazala dohnat GTX680 v DX12, skoro pet let po jejim vydani (GTX680 byla vydana uz 22. brezna 2012), kdyz navic existuji stovky DX11 her, kde ma GTX680 vykonu dostatek, ale ani ne deset her, ktere pouzivaji DX12? Jsi cim dal tim smesnejsi. Nevim jestli je to tou zvetsujici se zoufalosti ze Zenu a Vegy v nedohlednu, ale mel bys s tim neco delat.
Současné karty s GCN jsou velmi pokročilé, ale bohužel různé věci zvládají různě dobře a třeba nejsou dostatečně výkonné (s ohledem na investované křemíkové prostředky) pro hráče. Což mně osobně tedy vůbec nevadí – pro mě jsou to jen výpočetní prostředky -, ale chápu, že někomu třeba ano, a pro puberťáky pořád ostatně máme herní karty od nVidie.
Nejsou pokrocile ani v nehernich vecech. Ze nezaostavaji za Pascalem tolik ve vypoctech neni mensi zaostalosti GCN v GPGPU, ale spis strategii Nvidie, ktera do hernich grafik dava umyslne jen omezeny vypocetni hardware. Pokud se ale podivate na vypocetni podporu u GP100, pak je zcela jasne, ze je GCN zastarala i v tomto ohledu (a dokoncer byla i proti Maxwellu a Kepleru, v prislusnych generacich).
GCN je ve výpočtech tak zastaralá, že dokonce má podporu jenom OpenCL 2.x, kdežto nVidia má pokročilejší OpenCL 1.2…oops, něco se zvrtlo. 🙂
K cemu OpenCL, kdyz vetsina z vyznamnych hracu pouziva CUDA? Staci se podivat na machine learning knihovny – prvnich pet, co najdes, bude podorovat CUDA a kolik z nich OpenCL? 0.
staci sa pozriet tu: http://create.pro/blog/open-cl-vs-cuda-amd-vs-nvidia-better-application-support-gpgpugpu-acceleration-real-world-face/
Kde jsi něco takového psal a k tomu současně, kde jsem psal, že je GCN skvělá a užasná. Prosím o důkaz a to hned. Jinak tě s klidem označím za lháře, což jsi skoro vždycky.
A pokud se nemýlím, tak o Vega řadě jsi tu mluvil jen jako o failu, defacto nástavbě Polarisu, nikoliv jako o nové architektuře.
kolik ti je? Sedm? Prý „a to hned“ :DDD Včera vám to s Tynytem šlo celkem dobře, dneska zase perlíte … Každopádně bude Vega super čip, z jakého důvodu, to ponecháme odborníkům, akorát se malinko bojím té spotřeby. Víc se těším na Rizen, pokud se potvrdí 3,6-3,9 frekvence, bude to velice slušná konkurence …
Protože vím, že uz nezareaguje. Prostě jen plácá nesmysly o pseudokomentářích, které jakoby někdo napsal, jen aby si dokázal jakou má ve všem pravdu, je borec a vsem to natřel. Přitom jen kecá.
to beru
Abych rek pravdu ja si ho pletu s Wendakem a trochu se mi pletou jejich vyplody tady, na diitu a ddworldu. Takze kdo vi. Jeden z nich to bude 😉
Já sice nevím, proč jsem si to vysloužil, ale být v jedné grupě s del42sa mi až tak nevadí. 😉
Mimochodem – já jsem GCN nikde nechválil, ale považuji ji za architekturu, která řeší problém hrubou silou (což považuju za pozitivní, neboť se tento přístup historicky prokázal jako úspěšný, a to nejen v oblasti grafik) a zároveň se domnívám, že AMD dlouhodobě staví své HSA na GCN, byť se toto vyvíjí. Takže mám stále za to, že i Vega bude mít GCN (a prezentace nic zásadního v tomto ohledu neodhalila, že by přišlo něco víc než jen evoluce).
Pokud bych to měl shrnout (a bojím se, že tvá zelená mysl to stejně nepochopí), tak zahozením GCN si AMD nepomůže, naopak je IMHO vidět, že GCN stále vylepšují, a to i o techniky, které úspěšně znovupoužila nvidia (dlaždicový rendering). Jenže tohle tu je věky, a probíhá to oběma směry (což při svém zeleném zákalu asi nevidíš).
doteď se dávalo rovnítko mezi slova „hrubá síla = nVidie … najednou koukám, že se to týká jen GCN … a jasně, nikdo z fans AMD nikde nepasal, že GCN je cool a nvidie architektura je 100 let za opicema … to se nám zeleným jen tak něco zdá …
Hrubá síla u nVidie skončila u Thermi. 🙂
Jinak ano, architektonicky je nVidia vždy za opicema. Porovnej si dnes prastaré Tahity 7970 s 680. Propad Keplera je celkem žalostný. 🙂
vy oba juníci, tvrdě bojujete za svá práva :DDD S nástupem Pascalu se opět, jako pokaždé, psalo o hrubé síle v souvislosti s frekvencí … stačí jen malinko číst, neplácat … Já nic neporovnávám, jen konstatuji, nic víc, nic méně.
Nemám nic proti Veze a nebudu psát, že se opičí po nVidii s některými features a že je taky 100 let za opicemi. Proč, když má z toho uživatel prospěch?
Já jsem s Pascalem náhodou spokojen. I když to není nějak král technologií, i s malým čipem a vysokými frekvencemi je prostě mnohem dále, než to, co má AMD. A proto AMD utekli marže. Může si za to sama. 🙂
Osobně jsem hrubou sílu považoval za instrukce na takt, takže FLOPS. Pokud se ale celou dobu myslela frekvence, tak tu již nějakou dobu vede nVidia.
Za svá práva bych jinak bojoval. Ale nevidím, že to zrovna dělám. 😀
Ale to by treba mohlo byt skvele meritko pokrocilosti architektury – jak moc dokaze grafika vyuzit svuj teoreticky vykon. Kdyz ma grafika 5.6 TFLOPs, ale vykon ma sotva jako grafika konkurence, ktera ma 4.7 TFLOPs, tak neni moc pokrocila, ne?
Už jsem Ti říkal minule. Když je GP100 Tesla 21TFLOPS bestie, jak to, že ve hrách je to absolutní low-end? 🙂
Protože je to brutální výpočetní čip, ale očesaná o pro výpočty nepotřebné jednotky.
Nemůžeš porovnávat teoretický výkon instrukcí s výkonem daných jednotek čipu. 🙂
GP100 je ale vypocetni cip. Tam zas muzes porovnavat teoreticky vypocetni vykon s realnym 🙂
Doteď? O čem to píšeš? Poslední GPU s hrubou sílou byl Fermi a velký Kepler.
Od té doby nvidia jde cestou optimalizace jak na úrovni GPU, tak na úrovni driverů. Je to ostatně vidět velmi dobře na (ne)optimalizování kódu driverů starších generací v novějších releasech. Když to funguje (tj. nvidia upraví drivery a zároveň donutí vývojáře her k implementaci svých optimalizovaných technologií), je to super a sexy. Jenže to jsi v područí výrobce a když si usmyslí, že kartu zařízne, tak s tím moc nenaděláš. U AMD je to tak, že ty staré karty sice podporu nemají, ale fungují – možná ne optimálně, ale poměrně lépe než jejich nV ekvivalenty. Toť má zkušenost.
Ako NV núti vývojárov? Stojí Huang pištoľou v ruke pri vývojároch aby to implementovali?
Asi upláca všetko naokolo kde sa dá, len aby poškodil chudáka AMD 😀 😀 😀
Rosťo, to slyším poprvé, že hrubá síla = nVidie, kde si to vyčetl? Ne, fakt by mě to zajímalo, protože se dá najít desítky článků (rok, dva roky staré), kde se píše, že nVidia na to jde chytře přes odladěné ovladače a AMD jde na to hrubou silou. Už jen teoretické TFLOPs, což se +- rovná hrubé síle měla vždy větší AMD
NVidia a odladěné ovladače? AMD s pokrokovou GCN a hrubá síla? Začínám si připadat jak na kolotoči 🙂
ne jednou se psalo, že je nVidia v podstatě šrot (s nadsázkou), ale vše dohání hrubou sílou, frekvencí … co jiné by to bylo? Logicky?
Tohle se pravidelně píše na Honzíkovém světě.
AMD moderní nadčasová architektůra,nv zastaralá, která to dohání hrubou silou.
Karta s GCN má prakticky vždycky víc TFLOPS a propustnosti.
Těm Nvidiím z posledních let to jde sice ve hrách stejně dobře s nižšími parametry, ale třeba ta propustnost se může projecit na nějaké výpočetní zátěži, kde nefungujou delta komprese/komprese textur. To ukazuje, že tam ten rozdíl reálně je.
jistě, tohle jsem nikde nezpochybnil … každopádně se zdá, pokud dobře čtu, že GCN ve Veze hraje už jen jakousi „poradní“ úlohu, pravděpodobně jen kvůli asynchronním shaderům ji úplně neodstavili …
Ta podpora asynchronních shaderů vykonávaných zároveň (ve stylu HT/SMT) se zrovna IMHO dá naroubovat na různé výpočetní jednotky, to bych za tím asi neviděl.
Ze Vega neni GCN je prece snadne dokazat. S kazdou novou velkou architekturou AMD menilo strukturu compute units – nejdriv fixed-pipeline, pak TeraScale (VLIW), pak GCN a ted nove compute units ve Veze.
No a za druhe – pokazde pri uvedeni vylepseneho GCN nam AMD mlatila o cumak obri powerpointove GCN verze – GCN 1.0!!, GCN 2.0!!!!1!, GCN megahypersuperverze 4.0!!!11!!!!!! a ted nic ..
To nemyslím, že by byly věci, z kterých bych něco argumentoval, hlavně ne to číslování verzí.
K tomu označování. Stačí se podívat, jak se Intel po pěti letech najednou rozhodl, že Sandy Bridge je „Core 2. generace“. Jako by neexistoval Nehalem (což byla po stránce architektonických změn ohromná kláda, asi i o dost větší než Yonah – > Conroe), a to přitom ještě už to „Core architecture [ve smyslu Conroe]“ bylo vlastně „Core 2“, protože marketing se neudržel a pojmenoval Yonaha „Core“ (jo, už tam to pohnojili).
No ale dobře, tak po pěti letech je Sandy Bridge „Core 2 Duo Dvě“. A Skylake je „šestá generace“, tak bude Kaby Lake „sedmá generace“!
TL;DR: Ne všechny nomenklatury výrobců HW bývají moudré 🙂
BTW mezi „fixed pipeline“ (tím je myšlen původní DX7 Radeon?) a terascale toho bylo docela dost, myslím (DX8 Radeony, dvě různé architektury pro DX9).
P.S. Já budu zatím předpokládat, že to má blíž k GCN než dál – jak jsem předtím dal ten příklad – něco jako evoluční vztah mezi Sandy a Haswellem, oproti ostrému předělu jako byl mezi Neburstem a Conroe. (nebo terascale a GCN). Jestli je to evoluční cesta by mohlo být vidět třeba na té interní instrukční sadě/kompilátorech. Může tam být spoustu nových nebo překopaných komponent, ale jde o to, jestli to vyvinuli z GCN (já bych řek že jo) nebo shodili všechno ze stolu a začli s čistým listem – což se mi z toho dosavadního nezdá.
Ze pri vyvoji vychazeli z GCN nerozpuruju.
Že nepozporujete? Takže „AMD zahodilo GCN a dela radikalne novou architekturu“ byly jen obvyklé silácké řeči? 😉
Asi vam uniklo, o cem jsme se s panem Olsanem bavili. AMD zahodilo GCN. Vega je nova architektura, ktera nektre prvky z GCN zachovala, ale ty hlavni oblasti jsou zcela predelane.
Vzdyt vyse pises ze z nej vychazeji? Jak ho mohli zahodit tak, aby z nej vysli? 😀 argumentacni odbornik jako pan Belka
Tak co tam podle vas z GCN zbylo? Predelali od zakladu compute units, predelali od zakladu rasterizer, predelali geometry pipeline, scheduler predelali take. Nejak tech komponent v GPU uz moc vic neni. Memory controller treba a co dal? Ze pri navrhu vychazeli z GCN a vzali si z ni nejake zakladni veci neznamena, ze to je GCN.
Pouziju tvoji logiku, ty nejsi Maudit, protoze vykazujes znaky uplne jineho tvora. A odpoved na tohle omilani neustale zjevneho faktu, ze se jedna o prekopanou arch, coz nikdo nerozporuje: kuprikladu je to porad simt. Prirovnani, ze to je stejna zmena jako vliw-gcn(simt), kdyz gcn vs gcn ncu je oboje porad simt…
„Pouziju tvoji logiku, ty nejsi Maudit, protoze vykazujes znaky uplne jineho tvora.“
Koukam ze argumenty uz asi uplne dosly, to je dobra zoufalost 🙂
Tady se pletete. Pokud je v cipu efektivnejsi caching (necham si v cachi data, ktera znovu pouziju a ne ta, ktera uz nepouziju), inteligentnejsi prefetch dat (tzn. prednacitam si veci, ktere skutecne pouziju a ne ty, ktere mi k nicemu nakonec nebudou), nebo treba lepsi komprese, tak mi ke stejnemu vysledku mensi propustnost. To je zakladni princip nejen v hardwaru, ale i v softwaru.
Někde to tak je, ale já měl na mysli úlohy, kde by to bylo natvrdo „memory-bound“, to už to pak závisí na té fyzické propustnosti, kolik se prostě dá maximálně a kontinuálně procpat dat za sekundu do GPU a zpátky.
No to je pravda, ale v realu (z me praxe) je takovych pripadu malo. Vetsinou ta data potrebujete, aby se s nimi neco delalo, tzn. cast casu se travi jejich ziskanim, cast vypocty. Pokud bych potreboval prelevat data z mista na misto, a delal s nimi minimum operaci, tak na to uz je lepsi procesor, ktery ma ke sbernicim mnohem blize (casto ma i specialni propojeni – QPI atd.).
Edit: AMD je v tomto navic v horsi pozici, protoze pokud chce mit unifikovanou pamet pres cely system (RAM + GRAM), znamena to mimo jine, ze nejen grafika ziska pristup ven, ale i jine aplikace mohou chtit data z pameti grafiky. Tim padem ubyva grafice propustnost pro vlastni operace.
Pouze v případě, že takovýto přístup nebude koherentní. To asi nebude moc pravděpodobné a nelze to doporučit nikdy ani v jednom směru.
Jinak vámi opovrhovaná GCN byla zřejmě stavěná na to „mnohem bližší připojení“, jinak by nemělo smysl, aby se AMD hnala k lepším a lepším APU (že softwarová stránka zatím kulhá to samozřejmě poněkud kazí, což je dost škoda, zvláště pro bateriová zařízení).
Nechapete zakladni princip unifikovaneho pametoveho prostoru. To nema s koherenci nic spolecneho. Koherentni pametove schema by notifikovalo klienta o zmenach v pameti GPU, aby invalidoval svoji lokalni cache. To ale znamena, ze si prave aktualni verzi dat stahuje z pameti GPU, protoze v jeho cachi jsou zastarala. Pro dostudovani doporucuji do Googlu „wiki memory coherence“.
Jaké „koherentní paměťové schéma“? KOHERENCE je VLASTNOST prováděcí stopy programu s ohledem na jeho přístupové vzory, to není žádné „schéma“. Každý konkrétní program (nebo i každé jeho spuštění) ji může nebo nemusí mít. To, o čem mluvíte, sice existuje (bohužel nešťastně – a v tomto případě fyzikálně nevhodně – to má podobný název), ale není to to, o čem mluvím já.
[EDIT: s tímhle konceptem mimochodem přišli pokud vím počítačoví grafici, nikoli „klasičtí CS-nící“, takže tady se pouze přizpůsobuji oboru, o kterém se zrovna mluví.]
Naopak. Koherence ma ten ucel, ze je pristup k datum pro klienty transparentni, ze se nestane, ze maji v cachi stara data, kdezto zdroj (vetsinou hlavni pamet) ma uz novejsi verzi. Jenze to mimo jine znamena, ze bud musis cache aktualizovat, nebo presmerujes cteni primo do zdroje dat. V obou pripadech ale musis zmenena data z graficke pameti nejak dostat ke klientovi.
Efektivní cache ano, komprese také, ale nechápu, jak vám prefetch pomůže s propustností. Ten pouze skrývá latenci. Pokud je spekulativní (třeba na způsob http://www.cs.cmu.edu/~tcm/tcm_papers/asplos96_RDS_pf.ps.gz), tak potenciálně i na úkor propustnosti.
Prefetch je u GPU zcela bezna vec. A ano, je to kvuli zmenseni latence. Ale pokud budete pozorne cist muj prispevek, ja nerikam, ze prefetch pomuze propustnosti, ale ze efektivnejsi prefetch pomuze propustnosti. Pokud obe architektury prefetchuji data, ale jedna si stahuje data, znich 60% nevyuzije a druha data, z nichz nevyuzije jen 30%, taa druha ma nizsi naroky na propustnost.
offtopic: odpovidam uz snad na ctvrty vas prispevek za poslednich 15 minut a ani v jednom nechapete latku, o ktere mluvite. je to trochu zbytecne
„efektivnejsi prefetch pomuze propustnosti“
„Pokud obe architektury prefetchuji data, ale jedna si stahuje data, znich 60% nevyuzije a druha data, z nichz nevyuzije jen 30%, taa druha ma nizsi naroky na propustnost.“
Ale to není vlastnost architektury, ale konkrétního algoritmu běžícího v programovatelné jednotce. U toho se můžete rozhodnout (na základě jeho povahy, např. u těch stromů), že vyměníte latenci za šířku pásma (což ale u masivně paralelního stroje se souběžným zpracováním možná nebude nejlepší nápad), ale co to má společného s architekturou, to netuším. Leda že byste se rozhodl neprovádět prefetch explicitní (např generovaný kompilátorem) a nějak to nechat na „inteligentní“ paměťové jednotce. To bylo asi docela odvážné rozhodnutí, protože pak riskujete plýtvání, které nejste schopen programově ovlivnit, a ještě jsem nezaznamenal případ, kdy by se s něčím takovým systémoví programátoři smířili a hrozně u toho neřvali.
Látku chápu velice dobře, architektury studuji už tři dekády, děkuji pěkně. Vidím to z druhé strany podobně.
Tady je videt, ze vubec zadne HW architektury nestudujes. Jinak bys takove blbosti nepsal.
Occlusion culling je hardware feature a ma znacny vliv prave na prefetch textur a vertex/index dat. A ze v tomto AMD do ted zaostavalo dokazuje i novy pristup k teto oblasti (rozumnej uplne predelani daneho HW), coz mimo jine pisi i v te prezentaci (nebo o tom mluvil nekdo od nich, uz presne nevim).
Vychádza z CU GCN a tak nevidím, kde máš problém so spracovaním myšlienok.
Ale tvoje CU asi nebude dostatočne flexibilné, alebo máš slabú paralelizáciu, či nedostatok ALU. A možno sa ti niekde v tom vyskytol error. Dúfajme, že je softwarový ;).
Jenom bych podotknul, že mi to nepřijde jako zahození GCN, ale spíš jako „GCN 2“ (kdybychom ignorovali, že podle AMD byl Polaris GCN 4 a přečíslovali si to tak, že předtím bylo GCN 1.0 – GCN 1.3). Přijde mi, že je to většinou postavené na podobných principech a koncepci, podobně jako třeba Sandy Bridge -> Haswell. Nepřijde mi, ž eby to byl předěl, kdy se zahazuje celá koncepce a začíná se odznovu (jako Excavator -> Zen).
BTW díval jsem se a GP104 prý nemá jednotky schopné dělat FP16x2. Má jenom normální FP32 a *navíc* jednu jednotku FP16 na každý klastr… takže když se výkon v FP16 změří, tak je poloviční proti FP64, které už je na tom GPU samozřejmě samo pomalé. To jsem teda při tom uvedení nezaregistroval a dost mě to zaskočilo. Není to prej tak, že by Nvidia ty instrukce uměle softwarově osekala, ale přímo to tak je implementované v HW, údajně (říká AnandTech).
Což je teda docela neštěstí protože to může znamenat, že vývojáři her nebudou FP16 používat a tzn. se nebudou nikde realizovat ty možnosti zvednutí výkonu, které to dává. Leda asi na PS4 Pro.
to už je taková hříčka se slovy … AMD udělá totální převrat v architektuře, všechno překope, z původní nezůstane ani tranzistor, nazve to celé „GCN-10“ a kdo bude řešit, že to s původní GCN nemá nic společné?
Ale stejne je na tom kepler-maxwell-pascal. Tam proste spouta veci zustava a meni a vylepsuji se urcity casti.
Tam jde spis o to vizi toho co ta firma od te dane architektury chce a AMD v GCN verzatilni architekturu do vsech odvetvi. Nvidia jde trosku jinou cestou, coz slo videt u kepleru vs maxwell a pascal tohle dotahuje jeste dal, kde mame cip, ktery se vubec na hernim trhu neobjevi.
Maxwell-Pascal není moc dobrý příklad, protože tam se toho změnilo opravdu málo a Kepler zase má jiné uspořádání SM bloků.Samotné CUDA cores se od Fermi takřka nezměnily, mění se jen uspořádání SM(x), front-end a back-end. Kepler příšel s Hyper-Q schedulerem (front-end) a s Maxwellem přišel tiled-based rasterizator (back-end), což byly jedny z hlavních důvodů zlepšení efektivity oproti předchozím uarchs.
Ty změny ve Vega jsou tentokrát opravdu hodně razatní byť základ je stále GCN (respektive styl fungování – scheduling a SIMD/MIMD)
První GCN byla pro AMD revoluční změna, ty další updaty GCN spíše přidávaly výpočetní funkcionality, teprve s Tonga přišla navíc Delta Komprese, vylepšená geometrie podpora pro FP16 a s Polaris „primitive discard accelerator“ a opět lepší geometrie a posílení asynchroního zpracování dat (výpočetní i herní)
Samotné shader core ale zůstalo celé ty léta od uvedení HD7970 beze změny. Takže to se u Vega mění, vlastně se toho mění docela hodně, vše co souvisí s rasterizací a geometrí a shader core.
Ano je to tak. Anand má pravdu. Ty packed instruction math FP16 umí jen jediné GPU od Nvidie a to GP100 (možná i Tegra XP, teď nevím). GP104 má „obyčejné“ FP32 jednotky a jen jednu jedinou 2xFP16 jednotku v klastru. Já se osobně domnívám, že využití FP16 ve hrách určitě přijde, je ale otázkou v jakém časovém horizontu, takže to až tak nemusí NV vadit, ale mohla by to být i teoretická výhoda Vegy.
Zajimalo by mě spíše co je pravdy na tom, že i GP100 má mít údajně ROPs a Polymorh engine, čili by hypoteticky mohla být vydaná jako herní karta ??? To by bylo docela překvapení….
http://www.anandtech.com/comments/10516/nvidia-announces-quadro-pascal-family-quadro-p6000-p5000/509590
GCN a konkretne Vega ma zase techniky nvidia postrada. Rozhodne to neznamena, ze by nektera byla horsi, jsou proste jine, co se casu tyce, tak AMD starne pomaleji, ale muze se to vylozit i tak, ze ziskavaji na vykonu v case kvuli optimalizacim v ovladacich, ktere nvidia umi aplikovat rychleji.
Zbavit se GCN je holy nesmysl, GCN je architektura navrzena pro konzole a low level API, dost pochybuju, ze by Sony nebo microsoft stali o jinou architekturu, kdyz ji sami pomahali navrhovat a financovat vyvoj. AMD na v GCN vynikajici architekturu kombinujici skvely vypocetni vykon a konkurenceschopny herni vykon. Vega je v tomhle ohledu pomerne znacny skok dopredu, ale zaroven si drzi versatilitu GCN. AMD asi tezko bude delat architekturu zvlast pro konzole a zvlast pro PC, navic kdyz jsou obe platformy PC. To by nedavalo smysl, tak jako nedava smysl vas nazor zbavit se GCN.
Ne, neštve nás to, protože plácáte blbosti. Půlka změn nemá nic společného s GCN a i zbytek je vlastně vytvoření derivátu GCN s proměnnou délkou operací kvůli hrám (HPC to nepotřebuje). Nesmíte ten marketing AMD tolik žrát, většinou se tam přehání.
Tak co tam podle vas z GCN zbylo? Predelali od zakladu compute units, predelali od zakladu rasterizer, predelali geometry pipeline, scheduler predelali take. Nejak tech komponent v GPU uz moc vic neni. Memory controller treba a co dal?
Pokud Wikipedie (na kterou sám odkazujete!) má pravdu v tom, že GCN je jednak ISA, jednak mikroarchitektura (fyzická realizace ISA), pak rasterizér, geometry pipeline, řadič paměti apod. nemají s ní mnoho společného. Něco jako „uncore“ na CPU. Dokonce ani to zavedení fyzických ALU s variabilní šířkou nemusí ovlivnit instrukční sadu, po úpravě dekódování a plánování instrukcí – je to už samozřejmě ale úprava mikroarchitektury. Prostě to z pohledu programátora nevidíte jinak než jako změnu latencí, propustnosti a spotřeby (ale k takovýmto změnám by došlo i při jiných úpravách mikroarchitektury než při zavedení variabilních vektorových jednotek).
Samozřejmě pokud by tyto změny byly více viditelné, už by to asi nebyla GCN (možná podobně, jako když se Intel chystá v budoucnu uřezat hromadu starých instrukcí – to už taky asi nebude plná AMD64). Není mi však z veřejně známých informací zřejmé, že právě k tomuto dojde. Máte snad takovéto podrobnější informace vy? V současných webových zprávách je zrovna u tohohle bohužel hromada šumu.
O cem se tu vubec bavime? Ani samo AMD uz to za GCN nepovazuje. A kde odkazuju na wikipedii GCN? 😀 Mate vlci mlhu. Navic tu tvrdite, jak studujete hw architektury, pritom se musite ptat wikipedie? Ahm, dobry no 🙂
„GCN je jednak ISA, jednak mikroarchitektura (fyzická realizace ISA), pak rasterizér, geometry pipeline, řadič paměti apod. nemají s ní mnoho společného“ – co to je zas za blabol? Fyzicka realizace GPU architektury nema nic spolecneho s rasterizerem, geometry pipeline, memory controllerem apod.? Od kdy? To asi o tehle vecech pri predtavenich nove ARCHITEKTURY uz roky obe spolecnosti mluvi omylem, ne? 😀
Jak si to tady ctu tak vetsinu spiny tady hazi lidi kteri podle vseho nikde nic jineho necetli. Nejdrive si prectete informace ohledne arch GCN, VEGA a RYZEN. RYZEN ma prednost je to stezejni produkt, VEGA bude prelom Q1 a Q2. Vykon je nad GTX 1080 na 100% a ani GTX 1080Ti je nedokaze porazit a to je jeden z duvodu proc ji nVidia vubec neoznamila. VEGA ve spolupraci s procesorem RYZEN rozpohybovala Battlefront: Rogue One ve 4K na 60FPS a to bez propadu, vic ani nejde protoze tam je lock na tech 60FPS. GTX 1080 to nedokaze a to je fakt. Tak to je dukaz pro ty kteri porad tvrdi ze to FAIL.
„Vykon je nad GTX 1080 na 100% a ani GTX 1080Ti je nedokaze porazit“
A toto bratia a sestry je pravá viera. Pravý červený boh AMD ešte ani neposlal svoje dietko do sveta (Vegu) ale tý z vierou sú už aj tak neochvejne presvedčený na základe pár „správe vybraných faktov“ od AMD že VEGA bude lepšia a proste lepšia než rovnako nevydaný Zelený syn temnoty GTX1080Ti.
Naskytá sa už len jedna otázka – je to tá pravá viera alebo skôr ľahkovernosť?
A to vše AMD dokázalo aniž by vydalo jeden nebo druhý produkt na pc neznámé konfiguraci ( Tak jo byly tam amd komponenty 🙂 ) rok poté.
Amen
Na podobne tvrzeni je trochu brzy. Vega 10 bude zcela jiste vykonejsi nez 1080, ale i Titanu XP si nejsem jisty, asi to bude zalezet dost na dane hre. Faktem je, ze Vega je parametrove lepsi, ovsem s nizsimi takty, ma lepsi pametovy subsystem. Bude s 1080Ti rozhodne souperit, jestli bude mirne pomalejsi (AMD ma tradicne ve vysokych rozlizenich dobre vysledky) nebo rychlejsi je uz celkem jedno a rozhodne to pouze o cene. AMd rozhodne nepujde s cenou hodne dolu oproti konkurenci, ne u tohodle produktu.
Nechci ti kazit radost (vlastne jo), ale GTX1080 s aktualnimi drivery taky dava Battlefield ve 4k pri ~60fps 🙂 Jasne, po uvedeni to davala s cca 50fps, ale to uz je skoro trictvrte roku. Pretaktovane edice GTX1080 davaji Battlefield ve 4k dokonce pri vice nez 60fps prumer 😉
https://www.techpowerup.com/reviews/Zotac/GeForce_GTX_1080_Amp_Extreme/8.html
Fajn že vega technologicky dotahuje konkurenciu. Trochu to prinuti aj nvidiu zase inovovať a zlacnovať. Presne situacia ako u CPU. Vyborne teda, len čo im to tolko trvalo, tieto vecičky mal mať už polaris z mojho pohladu.
hlavně zlevňovat … jen se bojím, že Vega nebude stát zrovna málo … velký čip, HBM paměti … ale snad to bude kolem 20K a to by 1080 silně tlačilo s cenou dolů …
Nvidia by mohla konecne dotahnout AMD v async compute 🙂 doted pokud vim pouzivaji pouze pre-emp. AMD je generacne dal uz snad 3-4 roky.
To je také doťahovanie a kedy AMD dotiahne NV v teselácii?
Prisli na zpusob, jak neteselovat vodu pod terenem, tak uz to neni potreba.
To bola jedna hra a čo ostatné?
v tech ostatnich staci vypnout gameworks, pokud zrovna cirou nahodou obsahuji hairworks s takovou mirou zavlaseni, ze se ji nevyrovnaji ani modelky v reklame na nejvicnej sampony.
Čiže vypneš GW a hneď AMD grafiky lepšie teselujú.
Ne, ale neteseluji blbosti. Na delsi povidani. Tobe prijde normalni plytvat elektrinou na takovou uroven teselace, ze jsou pak polygony mensi nez pixely?
Čiže obhajuješ nízky výkon v teselácii že sa teselujú podľa teba blbosti?
neobhajuji nizky vykon, co dal? zkusis treba odpovedet nebo dneska koncis pouzę u navodnych otazek?
Jdi do háje ty nvidia fan… AMD aspoň má normálnější podporu a ne jako nvidia, která ti odpoví váš problém, čau.
Jako vážně nevím co tu řešíš, když ty tvé sračky jsou hodnoceny v halířích.
Jseš nula co si hledá všechno… A reálnost nevidíš nikde. Neviděls reál, ale vše je lepší.
No ja mám opačnú skúsenosť. Na AMD som reportoval niekoľko chýb a ani mú ani bú. Na nVidiu som nereportoval nič, nebolo našťastie čo. Takže nenadával by som tu do nVidia fanov, pretože to isté by som mohol hovoriť tebe, že si AMD fan. Skôr by som to spriemeroval tvoju a moju skúsenosť, tak to si potom nemajú obe firmy čo vyčítať. A ostatne keď sa to tak zoberie, nemáme profi karty, neplatíme si podporu separátne 🙂
Když seš tak chytrej, tak proč AMD jde po opencl a proč nvidia jde po cuda (vlastní cestou).
Nvidia poslední rok sere na zákazníky a to včetně velkých firem. Ty seš nvidia fan, ano možná jsem AMD fan, ale to co tu vykládáš jsou takové sračky, že bych ti za to i nafackoval.
AMDfanovi vyviera žlč? Počúvaj ma ty bezmozog. nVidia má prepracovaný svoj propietarný SW, preto si ide svojou cestou, má výbornú podporu programov, ktoré bežia rýchlejšie cez CUDA ako OpenCL. To že AMD je neschoopné rozvíjať spoluprácu s inými firmami opäť nie je chyba nVidie. A aké sračky som vykladal ty dement? Povedal som len to, že každý máme svoju skúsenosť so supportom a začal si tu vylievať žumpu. Ty budeš to decko, ktoré si myslí že múdrosťou zožralo pol sveta a jediné čoho je schopné uchylovať sa hneď k násiliu ale pochopiť základné fungovanie trhu je už moc? A choď si fackovať niekoho doma…resp. seba lebo si pekne tupý.
EIDT: a ako si dospel k záveru, že nVidia serie na zákazníkov? Potom AMD nerobí zhola nič len sľubuje.
A vieš vôbec ako sa kreslia mapy do hier? Ty si myslíš, že sa spraví najprv terén a potom sa do toho umiestni voda? Si pekne mimo. Práve naopak, do vody sa umiestňujú prvky. Ide o zjednodušenie návrhu. Aspoň si pozri občas nejaké to video s navrhovaním máp, keď musíš takto trepať.
Tolik agresivity, uplne jsem se te lek 😀
Ale kdybys v tom aufru premejslel, coz chapu neslo, tak bys pochopil, ze myslim PDA. Ale klidne obhajuj teselovani skrytejch povrchu s tim, ze to je bezna prasopraxe, to o tobe taky vypovida.
Tak počúvaj ma ty lajno. Najprv sa vrieskalo ako AMD má teselačné jednotky a nVidia ich bude simulovať SW cestou. Keď vyšla pravda najavo tak AMD bolo s teseláciou výkonom dosť pozadu. To že nemali výkon na riadnu teseláciu nie je problém nVidie ale AMD. Prečo AMD si nenasadí viac svojich programátorov na podporu hier? Obzvlášť dnes kde sa podiela AMD tak hra kopeckrát beží lepšie na nVidii ako AMD. Čím to bude? Ale čo by som chcel od dementa s IQ tykve. A už vidím teba ako vývojára ktorý do detajlov študuje komplet hru a opravuje teselácie len na viditeľné objekty. Chlapče si pekne naivný. Tak sa tu do mňa neobúvaj, odhaľuješ svoje nízke IQ…
Ten tvůj chlapskej přístup mne skutečně dojímá. Jako fakt moc. Skoro jsem ti i uvěřil, že už nejsi v pubertě.
Já vim, řádná teselace je vždycinky taková, jakou zvládne jen ta NVidia. Neumíš si připustit, že by třeba přepálená teselace mohla být prostředkem konkurenčního boje. A protože potřebuješ argumentíky, tak neopomeneš zmínit tu skvělou podporu gejm developerům, což je nejvíc cool, protože jinak by přeci ta nejvíc nej teselace vůbec neexistovala.Je potřeba hry co nejvíc prasit, protože tak se to přeci naprosto normálně dělá ne? Nějaký open close to metal API jsou fuj, gameworks rulezz! Eště nezapomeň zmínit PhysX, CUDA či co ještě máš v návodu na zvládání kritických situací.
A pokud máš problém s invektivy drsňáku, tak první jsi sem přilétl ty a poučoval „neználka“, jak to ty velký kluci dělaj, tak se možná jen děsíš toho co sám píšeš. Upřímně, úroveň tvého skvostného projevu naprosto přesně kopíruje tvou brilantní inteligenci!
Ty si evidentne mimo. Odkedy je kritérium sprasenej hry, to že na nVidii teselácia ide ok a na druhej to nie je bohvie čo? A čo bráni AMD sa dohodnúť s výrobcami hier aby zabezpečili lepšiu spoluprácu pri odlaďovaní hier? A tá tvoja AMD tiež nie je svätá a robila podrazy aj nVidii. Takže ani jedna firma si nemá čo vyčítať. A to že sa prasia hry to je pravda. Ale koho je to vina? Snáď nie výrobcov grafických kariet ale samotných vývojárov. Tlačí sa dosť na cenu a rýchlosť vydania. Ide o to, ako firma vie následne reagovať na chyby hry, a čo sa dá odladiť ovládačom, a čo nie. A čo tu plácaš o API ako fuj a gameworsk ako rulezz? Vieš v čom je výhoda gameworksu? Že ide o hotové knižnice pre hry. A čia je to neschpnosť, že niečo také nemá aj konkurencia? Zasa AMD. Výrobci hier sa snažia uľahčiť si robotu čo najviac, no zároveň potrebujú nejaké to lákadlo aby sa tá hra vôbec kupovala. A po ďalšie, znova brekoty na zlý Gameworks, CUDA a PhysX. Vám AMDfanboyom to evidentne musí ležať v žalúdku, že niečo také nemáte na svojom milovanom AMD, tak treba kydať na konkurenciu pretože to má. Tu je vidieť tvoju tuposť a neznalosť na čo konkrétne tie veci sa používajú. Gameworks som v krátkosti popísal vyššie. CUDA, je uzavretý ekosystém pre rozšírenú podporu programov. Obzvlášť prináša buď do programu rozšírenie pre konkrétne výpočty, prípadne program pod CUDA beží lepšie ako pod OpenCL, čo sa týka PhysX, je skôr kapitola sama o sebe. Hier využívajúcich je relatívne dosť https://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support no skrz svoju náročnosť na výpočty je ju problém použiť komplexne. Len to by trebalo dve veci. Po prvé nebyť zaslepený a biť sa až do smrti a po druhé mať o tom niečo aspoň načítané. Ale to by som chcel od veľkého decka asi veľa, o čom vypovedá tá tvoja veta o návode na zvládanie kritických situácii. Pridávam aspoň trochu o výkone CUDA resp. čo prináša CUDA do programov oproti OpenCl. http://www.gpurendering.com/technology/CudaVsOpencl.html
Som zvedavy na to ci sa AMD zlepsi 🙂
Iný súdok kávy, ale len nech to tu frčí 🙂
http://www.guru3d.com/news-story/amd-8-core-ryzen-processor-spotted-running-3-6-ghz-base-and-3-9-ghz-turbo.html
Tak niečo na mini spracovanie Jano.
A Maudit môže ešte nejako zhovadiť všetko okolo AMD. Fun Flame War
Add: https://mobile.twitter.com/CPCHardware/status/817044837358780416
F4 is already here @ 3.6/4.0
Redaktor Videocardz vs jeden užívateľ. Hádam pre niekoho prínosné.
TristanSDX • 15 hours ago
WhyCry
Something from green camp ?
2 • Reply•Share ›
Avatar
WhyCry VideoCardz.com TristanSDX • 15 hours ago
1080Ti was meant to be shown at CES, but NVIDIA pushed it back. At least that’s what I heard.
Even Gigabyte is begging Jensen to launch 1080 ti..
A Glass of Water WhyCry • 15 hours ago
Was the source of that legit or just offering hypotheticals?
2 • Reply•Share ›
Avatar
WhyCry VideoCardz.com A Glass of Water • 15 hours ago
I usually don’t listen to speculation. For sure it wouldn’t be considered as a source.
9 • Reply•Share ›
Avatar
A Glass of Water WhyCry • 15 hours ago
Thanks for the reply. Y’know, that one comment has proven that Nvidia really is a bit well – shocked, I think is the right word, about Vega. I’m pretty sure NV just assumed AMD would shrink FIJI and make another Fury X with HBM2
IMO of course.
4 • Reply•Share ›
Avatar
WhyCry VideoCardz.com A Glass of Water • 15 hours ago
I think they learned Vega10 is really close performance wise and decided to tune it up a bit. Well, technically they had no reason to launch it now, other than actually making their presentation interesting.
„Well, technically they had no reason to launch it now, other than actually making their presentation interesting.“
Přesně tak. Teď se prodává GTX 1080 za 600-700 dolarů, a na záapd od nás jsou schopný nějaký pracháče zlomit i na Titana XP. Kdyby GeForce GTX 1080 Ti zase uvedli za 650 USD jako GTX 980 Ti (i když ona by asi zase byla nejdřív bonusová funders edition), tak by museli GTX 1080 zlevnit. Ve výsledku by si v tržbách ani nemuseli pomoct a marže by se asi zhoršila. A bylo by těžší někoho zlomit na to toho Titana XP za 1200.
Čili tohle IMHO nemají motivaci dělat, dokud nevyjde nějaká konkurence, která by na ty modely GP104 zatlačila. Podle mě vydají zase v malém předstihu před tím, než by měla přijít ta Vega.
Plus sú trošku zaskočení vegou. No však uvidíme. Volta podľa komentárov ešte nie je na rade, ale to vôbec nevylučuje Pascal Refresh.
Nvidia má celkovo dobre zvládnutý business model a preto podojí, čo sa dá a presne podľa toho aj bude manévrovať.
Takže na leto sa môžeme celkom tešiť na Pascal Refresh vs Vega, ak sú ozaj v NV AMD zaskočení.
Jak jsem psal nahore, jestli Vega zvlada Battlefield DX12 ve 4k pri 60fps, tak bude vykonem odpovidat priblizne GTX1080 a Nvidia nema duvod reagovat. Pretaktovane GTX1080 dosahuji jeste lepsi vykon.
https://www.techpowerup.com/reviews/Zotac/GeForce_GTX_1080_Amp_Extreme/8.html
Nvidia udelala za trictvrte roku existence GP104 ocividne velky pokrok v ovladacich. Vetsina tech, kdo prorokuji uspech Vegy, ale stale pouziva vykony v testech z doby uvedeni GTX1080, ne aktualni.
Takze si nemyslim, ze by Nvidia byla Vegou zaskocena. Spis ji prezentace AMD uklidnila. Navic, jestli bude mit Vega problem porazit GTX1080, co bude AMD delat s refreshem Pascal, ktery je tu za tri-ctyri mesice? ..
60fps tam bylo kvuli zapnute vertikalni synchronizaci a nebyl to Battlefield ale Star Wars: Battlefront 😉
Bezi to na stejnem enginu.
to hej, ale testovali lokaciu Endor, kde gtx1080 dava v 4K cca 45fps
co kecas? 60fps, uplne v pohode
https://www.youtube.com/watch?v=JoheH-5a_FI
https://www.youtube.com/watch?v=fqhEvg02-fY&t=0s
..
Já teda vidím, že jsou tam propady i pod 50FPS, což na té Veze není ani náhodou.. nehledě na to, že ta GTX1080 je přetaktovaná na 2000 MHz. Kolik umí Vega navíc nikdo neví, kvůli 60 FPS locku, takže plácáš nesmysly. Ostatně jako vždy. 😉
tak tohle byla podpasovka, fuj. Vis kolik prace dalo najit video, kde je vykon blizky V10?
Z celyho zaznamu to spadne pod 60 fps jen jednou, na konci, asi na 2 sekundy 🙂 Jinak zbytek hry to je nejen pres 60fps, ale naprostou vetsinu casu pres 70 fps. Jeste navic je to jen na 4-core i5, ne na zadnem brutalne nabusenem 6-core nebo 8-core CPU a ten clovek zaroven nahrava 4k video.
Znama fakta jsou v tuhle chvili pouze ta, ze Vega to dava pri ~60fps (mozna vic, ale to nikdo zatim nevi), zatimco u GTX1080 uz jasne vime, ze to dava v pohode pri 60fps, spise 70fps. Zrejme s nejakym nabusenym sestijadrem od Intelu a bez nahravani by to mohlo jit jeste rychleji. Enjoy 🙂
Tak určitěéééé. 😀 Hlavně že to týpek hraje s gamepadem, to bude asi nějakej expert. :))
ja len vravim, co som cital na techspote, ked testovali endor
skor verim im, ako videu youtubera
http://www.techspot.com/articles-info/1174/bench/Battlefront_02.png
http://www.techspot.com/review/1096-star-wars-battlefront-benchmarks/
A to ti nevadi, ze testovali s ovladaci Nvidia GeForce 359.00 WHQL, kdyz uz je k dispozici verze 376.33? 😀 O tom tu celou dobu mluvim, ze s novymi ovladaci to dava GTX1080 ve 4k v 60fps uplne v pohode, dokonce i ve vice nez 70fps vetsinu casu.
„Bezi to na stejnem enginu.“
To má bejt fór na neděli?
Je to stejny engine, stejna hra, od stejneho autora i vydavatele, jedno je prvni svetova, druhe je ze sveta Star Wars. Vzhledem k tomu, ze Rogue One neni na zadnem duveryhodnem webu poradne na GTX1080 otestovany, nechtel jsem davat jen tak nejake youtube linky, ale realny a kvalitni test temer toho sameho.
Pokud ale vyzadujete presne srovnani ve stejne hre a stejne lokaci, ale spokojite s youtube, tak to srovnani jsem dal take v postu kousek nahore. Klidne si vyberte.
A na tom, že jiná hra má jiný mnosžství textur s jinýma rozlišeními, jiný počet obejktů na scéně, jiné efekty (a může mít třeba i jiné věci jinde v enginu), to je jako jedno? Jako už jsem slyšel různý věci, ale tohle se mi nezdá, že můžeš myslet vážně. (nebo teda jestli jako „pro orientaci“, OK, kdyby jiný data nebyly, ale není ta orientace pak spíš k ničemu, než k něčemu?)
Normálně se pro správný test vyžaduje, že by měla být stejná verze hry, stejná lokace a stejný průběh (ideálně naskriptovavaný, aby nebyla variace – takže jen ruční pobíhání po scéně už je do jistý míry problém, i když se to v recenzích někdy musí dělat, když to jinak nejde). A najednou stačí, když se to vozkouší na „podobný hře“?
Jasně že je lepší to yt video, i když tam není ta samá akce. Zrovna v tom lese bych si tipl, že budou podle množství vojáků, stromů a pohledu FPS dost jiná. IMHO je ve všech těchchle srovnáních chyba „měření“ větší, než jakej je nějakej relevantní rozptyl, kam to GPU může s výkonem dopadnout, takže v tuhle chvíli nemá smysl nic odhadovat.
„IMHO je ve všech těchchle srovnáních chyba „měření“ větší, než jakej je nějakej relevantní rozptyl, kam to GPU může s výkonem dopadnout, takže v tuhle chvíli nemá smysl nic odhadovat.“
Ano a to je presne moje pointa. Nema smysl prohlasovat Vegu za rychlejsi, kdyz neni zadny dobry test. Na to myslim test z duveryhodneho zdroje z prakticky totozne hry staci – GTX1080 nema problem v tomhle enginu a te akci udelat 60fps. A staci na to i to youtube video, kde jede GTX1080 dokonce spis na 70fps (a to s pomalejsim CPU a pri aktivnim nahravani 4k). Zadne jine validni moznosti srovnani me nenapadaji, dokud to treba TPU nebo TH neotestuje.
Prej s pomalejším CPU. 🙂 Myslíš ten přetaktovaný 4690k na 4,4 GHz oproti nejslabšímu Ryzenu na 3,4 s vypnutým turbem? 😀
Nema nahodou bejt Ryzen zazrak techniky, co rozdrti vsechny Intely? 😉
Tak toto není finální procesor, ale eng. sample na nižší frekvenci. A jestli i na něm to jede takto, tak klobouk dolů AMD. Pro tebe stejně budou určený nějaký čtyřjádra, místo toho tvýho Celerónku. 😛
😀
pokracuj, dobre se bavim.
Jakože když někdo vydá 2 různé hry na stejném enginu, tak pojedou na úplně stejných FPS?? 😀 😀 😀 komik..
To ale nejsou dve ruzne hry. To je porad Battlefield, jen predelany do havu Star Wars. Tys to asi nehral co? 😀
Koukám, že pán bude asi game developer. 😀
Jo Maudit a jeho perly … :-))
No uvidime 🙂 Zatim co skaven321 a vy mu podobni tu bazirujete na testech s geforce driverem verze 359.00, na 376.33 Nvidia ten Endor dava na 70fps.
Navrhuji neotevírat diskuze ke grafikám a CPU, vždy se tu vyrojí taková banda debilů. To je opravdu něco strašného. Zelený nebo červený fan, pro mě jste všichni jen hloupé konzumní ovce co se za svého baču klidně i poperete.
Len doplním, že minule som nad tým premýšľal, že dané osadenstvo stretnúť sa na pive v jednej krčme, tak to skončí asi dobrou bitkou :).
Ale podľa vlastnej skúsenosti nie je šanca fanatika presvedčiť. Skoro každý stupeň výkonu si dnes nájde konzumenta.
Pravda, pravda 🙂
https://www.youtube.com/watch?v=Y8tDaPLHxiE
Hands LITERALLY On AMD Vega!