Radeon s Vegou 10 bude mít 8 GB paměti. Výkon v Doomu, GPU kostka a další info

59

Docela znenadání včera AMD vyrukovalo s řadou grafik (lépe řečeno GPU akcelerátorů) Radeon Instinct pro počítání úloh strojového učení neboli neuronových sítí. To jsou sice produkty čistě pro servery a enterprise nasazení, ale s těmito kartami také AMD v podstatě ohlásilo GPU Vega 10, nový čip, který dá vzniknout i highedndovým herním grafikám, doplňující levné a mainstreamové Radeony RX 460, 470 a 480 z léta. Na internet po tomto začaly unikat další podrobnosti o připravovaných Radeonech s Vegou, na což se teď pojďme podívat.

 

70 FPS v Doomu na nastavení 4K/Ultra

Už během včerejška se objevilo toto video, na němž má být počítač obsahující Radeon s čipem Vega 10, an spouští letos vydaný Doom v rozlišení 4K (3840 × 2160 bodů), údajně na nastavení Ultra IQ. Nemáme sice konkrétní údaje o sestavě a také je problém v tom, že výkon závisí od toho, jaká scéna je ve hře zobrazena, nicméně toto demo už dává určitou představu o výkonu karty v této hře. Na videu je totiž patrné počítadlo snímků za vteřinu, které se v exteriérové scéně pohybuje okolo 68–72 FPS. Na jiné interiérové to zdá se bylo o něco méně, máme snímky s ukazující 66 FPS.

Tento výkon by měl nový highendový Radeon zařadit někam zhruba k GeForce GTX 1080, ovšem těžko říct, jestli nad, nebo pod a jaký rozdíl bude. Neznáme přesnou zprůměrovanou hodnotu FPS a také nemáme výsledky GeForce pro identickou scénu a pohyby. Důležité je, že vykreslování běží nad API Vulkan, nikoliv přes OpenGL, což by mělo AMD dávat výhodu, pokud se nemýlím. Radeonům v Doomu svědčil Vulkan více v době uvedení, což zdá se ještě stále trvá.

První předváděčka Radeonu s čipem Vega 10 (Zdroj: PCGamesHardware)
První předváděčka Radeonu s čipem Vega 10 (Zdroj: PCGamesHardware)

 

Zatím neuvedená karta byla na předváděčce držena mimo oči zvědavců, skříň měla dokonce zalepené různé průduchy i záslepku s konektory – na té jsou však vidět dva DisplayPorty v malém provedení, což by znamenalo, že karta má možná víc než čtyři výstupy (v druhém patře ale žádný není). AMD například mini DisplayPorty používalo v minulosti u grafik série „Eyefinity“, kde díky nim na jednu záslepku namačkalo šest portů. Je možné, že páska má utajit nějakou novotu na záslepce, což by mohlo být SuperMHL (asi málo pravděpodobné) nebo USB typu C (to už víc), ale také třeba nějaké ovládací tlačítko.

Přelepená záslepka s konektory. Že by schovávala USB typu C (Zdroj: Hardware.fr)
Záslepka s konektory, vidět jsou Mini DisplayPorty. Že by páska schovávala USB typu C? (Zdroj: Hardware.fr)

 

Zatímco pro Radeon s Vegou 10 fotku nemáme, objevil se alespoň snímek Radeonu Instinct MI25 s tímto GPU. Ten potvrzuje, že karta je dvouslotová a vzdor použití pamětí HBM2 má poměrně dlouhé PCB, delší než Radeon Instinct MI6 s Polarisem 10 a GDDR5 (který je mimochodem jednoslotový). Je však potvrzeno, že MI25 je jednočipová karta. Na desce by teoreticky mohly být i nějaké další komponenty. Hodně zajímavé by asi bylo místo pro paměti DDR4, ale pro velmi zajímavou možnost, že by Vega 10 podporovala více úrovní RAM s HBM2 jako cache, zatím nejsou žádné podklady.

Radeon Instinct MI25 (Zdroj: SemiAccurate)

Radeon Instinct MI25 a jednoslotový MI6 (Zdroj: SemiAccurate)
Radeon Instinct MI25 a jednoslotový MI6 (Zdroj: SemiAccurate)

 

Vega 10 má 8 GB paměti, zřejmě 2048bitovou sběrnici

Na druhou stranu již máme potvrzeno, že Radeon na bázi Vegy 10 má skutečně PCI ID 687F:C1, takže únik benchmarku v Ashes of the Singularity je zřejmě legitimní. Němečtí novináři z webů Golem a PCGamesHardware také na snímcích ukázali, že karta má dle statistik v Doomu 8 GB paměti a ComputerBase od jednoho ze zaměstnanců údajně získalo informaci, že propustnost je 512 GB/s – což by patrně znamenalo použití dvou čipů HBM2 na taktu 2,0 GHz efektivně a tudíž jen 2048bitovou sběrnici (informace odhalené před časem webem VideoCardz by se tedy nemýlily).

První předváděčka Radeonu s čipem Vega 10 (Zdroj: PCGamesHardware)
První předváděčka Radeonu s čipem Vega 10 (Zdroj: PCGamesHardware)

 

„Koduriho kostka“

Na veřejnost ale vyplavala ještě jedna velice zajímavá věc. Raja Koduri ukázal novinářům „kostku“ složenou ze čtyř kompaktních modulů Vega 10 (celkově by tedy měla mít výkon 100 TFLOPS v FP16). Toto provedení má malou desku jen s GPU a pamětmi na interposeru a napájecími obvody okolo, což se celé s trochou tolerance vejde do velké dlaně. Toho provedení je podobné kompaktním modulům Tesla P100 od Nvidie a bude tedy asi také určené pro velké nahuštění GPU do serverů. Toto provedení Vegy má být určené pro strojové učení, takže bude asi také spadat pod řadu Radeon Instinct.

Kostka z kompaktních modulů s GPU Vega 10 pro strojové učení (Zdroj: HardwareLuxx)
Kostka z kompaktních modulů s GPU Vega 10 pro strojové učení (Zdroj: HardwareLuxx)

Kostka z kompaktních modulů s GPU Vega 10 pro strojové učení (Zdroj: HardwareLuxx) Kostka z kompaktních modulů s GPU Vega 10 pro strojové učení (Zdroj: HardwareLuxx)

AMD ovšem zdá se hodlá použít takového kostkové 3D uspořádání, které by teoreticky mohlo umožňovat do serveru napráskat více GPU, než při jejich sázení vede sebe do plochy. Fotky bohužel nejsou příliš kvalitní, zdá se ale, že GPU jsou osazena směrem dovnitř a možná se tak počítá se společným tunelovým chladičem (něco jako má Apple u svého „odpadkového koše“ Mac Pro). Toto uspořádání je také možná výhodnější pro propojovací logiku, údajně je totiž použito speciální rozhraní. Teoreticky by mohlo jít o sběrnici GMI, která je integrovaná v procesorech s architekturou Zen a umožňovala by přímou a možná i koherentní komunikaci s CPU. Jak bude přesně kostka připojena k základní desce, ale z fotografií není jasné.

Zdroje: VideoCardz (1, 2)

Radeon s Vegou 10 bude mít 8 GB paměti. Výkon v Doomu, GPU kostka a další info

Ohodnoťte tento článek!

59 KOMENTÁŘE

  1. nevim, jako na amd/ati jedu od dob 486, ale to co predvadi posledni dobou (ze by i PR prestehovali do indie?? :)) ale jestli se to nezacne prodavat pred vanoci ale az v lednu … mno … a s tou kostkou chcou jako co? kdyby to bylo na hry, oka machrovinka na policku, ale jak toto budu cpat do 1U ?? tam by se me vazne hodilo neco „standatnejsiho“, bo jestli si budu stavet nejakej vypocetni cluster, kam by to melo mirit, tak to budu cpat do racku a ne do bedynek na policky …
    ale co, tesim se na zen apu, doufam ze nezklame 🙂

    • A to jsi nevidel co prave ted predvadi AMD na prezentaci Zenu. Ukazovali vykon Zenu proti Intelu v Battlefieldu 1, ve 4K ultra kvalite. A hadej na jaky grafice u obou systemu? Titan X.

      AMD pouziva pro vlastni dema ve 4K grafiky Nvidie. Smutny 😀

          • protože šlo o test a porovnání dvou „Procesorů“ Mauditku :-)) Vlastně ti na celém tom tvém neúspěšném pokusu o trollení uniká jeden poměrně podstatný fakt, a to že nešlo o předváděčku grafických karet ale CPU…..

            • A proc nepouzili dve Fiji? Pokud jsou grafiky stejne, tak je to prece porad srovnani CPU 😀 Odpoved je jasna ..

            • Ano odpověď je jasná. Použili záměrně nejvýkonnější herní kartu jaká je k dispozici a které výkon je veřejně znám. Ten trolling ti moc nejde.

      • Takže podle vaší logiky by bylo lepší, kdyby k porovnání vlastního CPU s CPU od Intelu použili sestavu s jinou grafickou kartou? Aby bylo tuplem méně jasné, kde se shody nebo rozdíly ve výkonu vzaly?

          • Asi by bylo optimální, kdyby mohli porovnat čtyři sestavy – kartézský součin {Intel, AMD} x {Titan, Vega} – ale jestli jsem to pochopil správně, Vega je stále těžce nehotová. Možná chtěli předejít problémům?

            • Vega nemôže byť „ťežce nehotová“. Keď má vyjsť v H1 2017 tak sa už musí finalizovať.

            • Jj, krasne jak jednou je karta tesne pred vydanim a nevyplati se ted kupovat nic od Nvidie, jindy je tezce nehotova, podle toho jak se to zrovna hodi a jak je potreba prezentovat tu „spravnou“ informaci. A uplne nejlepsi to je kdyz to takto prezentuji „redaktori“, u tech diskuteru se to da jeste pochopit.

            • Veď to. Keď vyšli 1070tky a 1080tky, tak sa hovorilo, že Vega má prísť už na jeseň. A že sa oplatí čakať. A teraz človek zistí, že možno príde za ďalšieho pol roka. Mne osobne by to bolo jedno, keby som nerozmýšľal nad 1080 Ti. Ale takto ani táto GPu nevíde tak skoro. Takže čakať je zbytočné. Pozerám momentálne po GTX 1080 od Zotacu vo verzii Extreme. Síce je to veľká tehla, ale zato výkon a prevádzkové vlastnosti sú ukážkové. Myslím, že lepšia 1080tka na trhu dnes nie je.

            • že vás to oba baví takhle trollit…. pokud vím , tak zprávy o vydání do konce roku byly pouze neoficální drby a navíc ne z moc spolehlivého zdroje jako je WCCFTECH.

              PS: Raja Koduri na té akci řekl, že sample Vegy, který použili při předvádění je jen pár týdnů starý

            • Minimálne na jednom webe som to čítal pomaly ako zaručené správy. 🙂 Ako treba čakať do jesene a pod.

              Ten sample Vegy už ale musí byť aspoň predfinálny. Ak ju chcú vyďať aspoň v H1 2017, nemajú moc času nazvyš. Aj tak už je to podľa mňa dlhé čakanie.

            • a máš nutkavou potřebu ten web znova a znova tahat do diskuze sem… nevím která diagnozá je horší…

            • Ako sa to vezme. Ja to beriem s rezervou a je mi to v podstate jedno. A diagnózy by som sem neťahal. To sa už potom môžme baviť o diagnózach aj v iných prípadoch, kde by sme sa vošli všetci vrátane teba. 🙂

            • Marku, netušíš které dvě diagnózy dotyčný srovnává? Jestli tu občas se opřít v diskuzích do jednoho nejobjektivnějšího pisálka na světě s diagnózou lezení mu pravidelně až do zádele?
              No a o tom trollení se hoch taky opravdu trefil. Zrovna on a další 2-3 králové kteří zde pravidelně v diskuzích kopou do Nvidia a do čtenářů kteří nevyzdvihují AMD do nebes.

            • To samé se dá říct o 5 králících, kteří kopou jen do AMD a vyzdvihují do nebes Nvidia…

            • Jen jestli to kopani do AMD neni zcela zaslouzene, vzhledem k tomu, ze konkurence (GPU i CPU), uz ma davno novou generaci, ktera je navic vyrazne lepsi, nez cokoliv co AMD dosud uvedlo (opet to plati pro GPU i CPU). AMD zatim nema nic a posledni novy produkt (Polaris) dopadl naprosto priserne (mizerna efektivita, nizky vykon na velikost cipu, nedostupne nereferencni verze, atd.).

              Vubec tomu nepomahate ani vy, samotni AMD fandove, kteri se snazi vse maskovat tvrzenim, ze GPU AMD jsou technicky pokrocilejsi, kdyz je to presne naopak (nemaji tile-based renderer, nemaji SMP, podporuji nizsi standarty HDR a do minuleho tydne dokonce ani HDR ve hrach nefungovalo, efektivita horsi, zopakuju vykon na velikost cipu horsi, .. mohl bych pokracovat dlouho, a to jsem ani nezminil softwarovy ekosystem). Dalsi chybu delate v tom extremnim hypu, ktery casto sami vytvarite, protoze o to hure pak vypada realny produkt, ktery by bez hypu dopadl jinak docela rozumne.

              Dalsi vec je, ze prichazis z pokriveneho sveta, kde se za odlisny nazor banuje, existujes v prostoru, kteremu se nekdy rika jeskyne ozven nebo zrcadlovy sal. Tam vidis jen ozveny svych nazoru, nic te nenuti ke zmene ani prehodnoceni. Vystaveni realite, kde te ostatni vyzivaji k obhajobe tvych nazoru, o kterych si dosud byl skalopevne presvedcen, je pak samozrejme bolestne a neprijemne. O tom mimochodem existuje rada studii (a ted si vazne nedelam srandu, ty studie jsou hlavne v kontextu socialnich siti) a ma se za to, ze dlouhodobejsi setrvani v takovych prostredich negativne ovlivnuje vyvoj mozku (ne nepodobne dlouhodobe zavislosti).

              Stastne a Vesele 🙂

            • víš co je smutné, že přes svou „moudrost“ nedokážeš pochopit, že finanční možnosti obou společností jsou diametrálně odlišné. Jediné co dokážeš je plivat na všechno, co ta společnost, která se snaží postavit zpátky na obě nohy dělá a přitom ani nedokážeš uznat, že ta druhá taky není bez chyby…. a ještě máš přes tento zoufalý nedostatek vlastní sebereflexe tu drzost, že druhým kážeš o pokřiveném světě a jeskyních. Víš jak se tomu říká ? Pokrytectví ! Štastné a veselé :-))

            • AMD mela jeste snad pred rokem nebo kdy vetsi obrat nez Nvidia, o par let zpet dokonce nasobne vetsi. Tak ci je to chyba? Jen a jen AMD.

            • No, podle mě to teda podáváš hodně jednostraně, ale lízt vím do té debaty radši nebudu.

              Jen k tomu tvýmu oblíbenýmu SMP: AMD má něco úplně stejně znějícího taky (one-pass geometrie pro víc view portů), viz článek o tom vydání Crimson ReLive.

              Implementační detaily ani jeden z nás nezná, takže bych se zdržel definitivních soudů o tom, co AMD/Nvidia má a nemá. IMHO – vzhledem k tomu, jak grafická pipeline funguje – bych si tipl, že schopnosti obou implementací budou dost podobné.

            • No vidis. To je konecne poradne zajimava informace, ktera ve vsem tom cervenem hypu uplne zapadla. Uvidime, jake to bude mit schopnosti, treba se to na SMP aspon trochu dotahne.

            • No psal jsem o tom v tom článku, zas tak o moc víc proti zapadnutí udělat nemůžu 🙂

              IMHO když prezentuješ závěry takovým autoritativním/suverénním stylem, jako si to tam o pár příspěvků výš dělal (nebo to bylo v jiném vlákně/článku? už v tom mám bordel), tak je to i trochu tvoje odpovědnost hlídat, jestli třeba nejsou nějaké skutečnosti, které tomu odporují. Tj. když mluvím o tom, jak moc je X lepší než Y, tak musím dávat bacha nejen na to, abych měl aktuální informace o X, ale taky o Y.

            • Demo te technologie zatim nebylo, ne? Takze tezko muzeme rikat, jestli to je nebo neni alternativa k SMP, nebo jak moc se to aspon bude dotahovat. Do te doby to neni moc argument, jen nazev.

            • Vtip je v tom, že normálne človek nepotrebuje do ničoho kopať. Ja osobne nemám nič proti AMD a preto nemám potrebu túto firmu nijak ohovárať a ani na ňu útočiť. Čo sa týka opäť iba mňa, nemôžem za to, že mi proste NV ponúka viac a preto si kupujem jej výrobky. Hovorím o Gameworks, PhysX či Flex. CUDu či Geforce Experience nespomínam pretože ich nevyužívam. Experience len minimálne na zobrazenie FPS či občasné nahrávanie. A to nehovorím o GSync, kde má ale AMD alternatívu. Plne chápem, že sú ľudia, ktorých nezaujíma to čo mňa a majú zasa svoje dôvody, prečo kupujú AMD. Čo ale nechápem sú stále výpady voči jej konkurencii a doslova vymýšľanie „škandálov“ okolo tejto firmy. Z môjho pozorovania útočenie na konkurenciu robí oveľa viac fandov AMD ako NV. Ja sa do diskusie zapojím až keď čítam nezmysly typu „hra he neoptimalizovaná lebo používa Gameworks“ alebo „hra poškodzuje konkurenciu lebo používa PhysX“ a pod. A takýchto útokov je veľa pri každej hre na ktorej NV spolupracuje.

            • +100

              A pak je taky super, ze kdyz dojdou pseudoargumenty, tak najednou nekteri pisi, at srovname financni moznosti konkurentu. Ja bych ale rekl, ze si AMD za to kde je muze jen a jen samo. Napriklad co jsem v rychlosti nasel rok 2010, tak AMD obrat 6.49 miliardy USD, Nvidia obrat 3.54 miliardy USD.

            • To přece vůbec není relevantní, čí je to chyba nebo jaký mělo AMD obrat před šesti lety nazpátek, protože hodnotíme současnou situaci. Celá tahle diskuze je o tom, že se snažíte nějakým (převážně negativním či posměšným) způsobem hodnotit či komentovat opožděné uvádění produktů jako např. Vega10 a já jen říkam, že je to důsledek finanční situace v AMD, což je prostý fakt, který si evidentně nedokážete dát někteří do souvislostí….

              Pseudoargumenty tady operujete vy. To čí je to chyba víme všichni už několik let, takže není potřeba to neustále opakovat. Ano je to chyba AMD a předchozích špatných rozhodnutí managementu a řekl bych, že o tom snad nikdy nikdo nezapochyboval. Kritizovat jiné, protože dělají některé věci tak je jim dovolí (současná) situace a přitom slepě omlouvat kiksy které dělá konkurence je prostě slaboduché… Howk.

            • Já předpokládám, že většina zde přispívajících ví, jaká je finanční situace AMD. Jak ale mám hodnotit z mého pohledu minimálně nešťastný způsob uvádění nových grafik (i přes to, že Polárky nejsou špatné grafiky), než negativně? Já vím, finanční situace AMD… no, doba, kdy byla povolená jen konstruktivní kritika, aby byl soudružský klid na práci, je už naštěstí za námi.

            • souhlasím, že uvedení Polarisu proběhlo poměrně nešťastně a že z nějakých důvodů se ten (zdánlivý) půlroční náskok AMD neproměnil ve výhodu. Bohužel pro AMD. Na druhou stranu, když se nad tím zamyslím, tak za tím zdržením určitě nemohla být chyba jen na straně AMD, ale zřejmě nějaký problém s výrobou a ten AMD nemohla ovlivnit (Globalfoundries). Nějak si totiž neumím představit, že by si jakákoliv firma včetně AMD nechala dobrovolně vyfouknout možnost vydat zajímavý produkt dříve než konkurence…

            • Nebo proste AMD nerikalo pri prvnim predstaveni Polaris pravdu. Ono se staci podivat treba na GFLOPS u AMD grafik a srovnat s GFLOPS u Nvidia grafik a porovnat s realnym vykonem. Podle herniho vykonu jsou realne GFLOPS u AMD jen cca 74% udavane hodnoty (pokud budeme brat Nvidii jako zaklad). U GPGPU je to dokonce jen asi 61%. Co si o tom pak mam myslet, kdyz AMD rekne, ze Polaris ma 5,8 TFLOPS, pricemz dosahuje prakticky stejneho vykonu jako GP106 od Nvidie s 4,7 TFLOPS? Nebo jejich vypocetni karta ma v half-precision 25 TFLOPS, pritom bude (pokud se pomery predchozich generaci vyrazne nezmeni) vyrazne pomalejsi nez Tesla P100 s 21,6 TFLOPS? AMD dela hrozny ramena a pak dopada jak dopada. To je treba pro me osobne nejvetsi motivace k jejich kritice. Znam ale fakt hodne lidi, kteri to maji podobne.

            • Jo tak ted budes za hrdinu. Proc to same nepises do diskuze Stachovi ktery minimalne poslednich 5 roku (kdy se AMD jen propada) pise jak je vsechno v poradku, na nejlepsi ceste, slunickove krasne, …

              A pokud chces rici, ze vydani 480 bylo o penezich, tak ses sakra mimo. V lednu nam ukazovali jak valcuji konkurenci s daleko mensi spotrebou, pak porad nejaky hype a nakonec jak dopadlo vydani 480 vime vsichni. Ne to opravdu neni o penezich. A pokud chteji Vegu vydat v lete, tak maji pekne naslapnuto cele to fiasko zopakovat. Budu rad, kdyz se ukaze se tomu tak nebude.

            • Aha, tak to je super pristup. Stach ktery jako redaktor verejne kyda hnuj na Nvidii je ti ukradeny, ale par diskuteru kteri se obcas otrou o AMD ti desne vadi. Cim to asi bude? A kdyz ti je Stach tak ukradeny, tak proc tam jsi v diskuzich peceny vareny?

            • @HWspeedy: mně vůbec nevadí diskutéři kteří se občas otřou o AMD ( moc pěkně řečeno mimochodem ), vadí mi hloupí lidé s černobílým viděním světa jako jsi ty a Maudit :-))

            • Aha, takze nam tady ted verejne das odkazy na minimalne 15 mych prispevku, kde ukazuji svoji hloupost a cernobile videni sveta. Pokud ne, verejne te budu v diskuzich oslovoval titulem lhar.

            • Hardware možná. Ale je snad jasné, že na softwaru/firmwaru záleží, když u moderních grafických karet nabobtnal do podoby kompilátoru. A ovladače rozhodně dospěji později než křemík.

            • jo těžce nehotová a proto ji na konci předváděli ve 4K ve Star Wars Battlefront s DLC Rogue One. lol

            • Pokud je mi známo, nechtějí zatím ukázat reálný výkon Vegy, její uvedení není na pořadu dne. Její nehotovost a technická nezopakovatelnost testu je pak druhý argument, proč Vegu z takového srovnání vynechat.

            • naopak, ta ukázka na závěr byla důkazem toho, že to GPU po stránce HW je už hotové a že se jedná o reálný produkt a nikoliv nějakou chiméru. Byl to v podstatě jen takový bonbonek na konec 🙂 Jinak ale akce byla o CPU a ne o grafických kartách, což si někteří diskutující nedokáží uvědomit…

              PS: btw, pokud ta karta s neodladěnými ovladači zvládá vysoke fps ve 4K, tak o její osud strach nemám.

            • Dosť by som sa čudoval keby nedoladili výkon ovládačov aspoň pre tie 2 hry, ktoré sa rozhodli verejne prezentovať.

            • Záškuby nevím, tearing jsem si všiml, když jsem dělal screenshoty. Jenže tearing může být i když jedu přes 60 FPS s vypnutým V-Sync, ne?

  2. Hypovani vlastnich produktu pomoci tech uplne nej vysledku (a za nejlepsich podminek), ktere dany hardware dokaze, se AMD zatracene vymsti. Kdyz uvadeji tu nejlepsi situaci, z prumeru budou pak vsichni zklamani.

    Nevypada to moc dobre. Jestli je ten uvedeny vykon Vegy 10 v Doomu (Vulkan) pravdivy, je sice vyssi nez GTX1080. Podobne jsou na tom ale v teto hre i jine AMD grafiky vuci soupericim Nvidiim. Staci si prepocitat naskok v Doomu vs vykon v ostatnich hrach u AMD grafik (za predpokladu, ze ty pomeru budou pro Vegu podobne, coz asi ano, porad je to GCN). Vychazi pak, ze Vega 10 bude ve skutecnosti pomalejsi nez GTX1080 v DX11 a dost mozna i v DX12.

  3. Zaujimalo by ma preco prave doom vsade vytahuju ako nejaky dokonaly priklad hrania v 4K. Mne tych cca 60+ (zahliadol som tam aj menej ako 66) zase az tak super nepripada. Na tych miestach kde su tie videa to dava v 4K aj 1070_ka. Su tam aj narocnejsie levely ako napriklad ten kde treba znicit 3 reaktory. Pochybujem o tom ze tam to v 4K pojde nad 60 ked uz teraz to pada tesne k 60. Vybrat si spravnu scenu a robit ramena je take „objektivne“ 😀 Doom sam o sebe narocny nie je a nema to ziadnu vypovednu hodnotu predvadzat sa prave v tejto hre.