Radeon RX 6800 a RX 6800 XT vrací plnou konkurenci do grafik. Jak dopadly v recenzích?

112

Radeony RX 6800 a RX 6800 XT vydány a my máme přehled toho, jak rychlé jsou v porovnání s GeForce RTX 3090, 3080 a 3070 v běžných i raytracingových hrách. A také jestli se máte bát jejich referenčního chlazení, které dost překvapilo.

Včera se začaly prodávat nové grafiky AMD Radeon RX 6800 a RX 6800 XT (a rychle také přestaly, protože omezené počty, které měly obchody na skladě pro začátek prodejů, byly rychle pryč, stejně jako s Ampere od Nvidie). Tím pádem je na čase se podívat, jak to s nimi dopadlo v testech.

Modely karet a něco o architektuře a nových funkcích jsme již probírali při odhalení karet. Také ke specifikacím už se vracet nebudeme. Pokud potřebujete osvěžit paměť, zde jsou parametry pro Radeon RX 6800 a zde pro Radeon RX 6800 XT.

Výkon v recenzích

Testy zatím z naší skvadry vyvolených, z jejichž recenzí čerpáme (jde o stálou sestavu kvůli konzistenci), vydaly weby Tom’s Hardware, techPowerUp (ten má recenzi referenčního Radeonu RX 6800, RX 6800 XT a separátně ještě test přínosů funkce Smart Access Memory), PC Perspective a německý ComputerBase. AnandTech zatím test nemá, alespoň pro Linuxáky ovšem již má článek Phoronix (celkový testOpenCL/ROCm).

Parametry Radeonů RX 6000 Zdroj: AMD

Výsledky jsem bral z ComputerBase, techPowerUpu a Tom’s Hardware, uvádíme procenta ze všech tří recenzí, vždy postupně v tomto pořadí. Na tom můžete vidět, jak se výsledky mohou lišit podle testovací metodiky. Nejprve testy z her bez raytacingových efektů, které jsou Radeonům mnohem lépe, než ty raytracingové – o tom bude řeč poté.

1080p

V rozlišení 1920 × 1080 bodů má Radeon RX 6800 XT o 5 %/6 % nižší výkon proti GeForce RTX 3080 v testu ComputerBase a TPU, ale u Tom’s Hardware skončil RX 6800 XT o 2 % rychlejší (jen v tomto rozlišení). A výkon je o 10 %/8 %/4 % nižší proti RTX 3090. Radeon RX 6800 XT je ale o 13 %/10 %/20 % rychlejší než RTX 3070 a o 15 %/10 %/ 18% rychlejší než RTX 2080 Ti. Proti proti loňskému Radeonu RX 5700 XT je o 60 %/47 %/57 % rychlejší.

Výkon Radeonu RX 6800 XT a 6800 ve hrách rozlišení 1080p ComputerBase Zdroj: ComputerBase

Slabší bráška RX 6800 má 88 %/92 %/89 % výkonu Radeonu RX 6800 XT a je o 13 %/13 %/10 % pomalejší než RTX 3080. Nad GeForce RTX 2080 Ti vyhrává podle ComputerBase o necelé procento, proti RTX 3070 zase o 1 % těsně prohrává, ale podle techPowerUp jsou obě tyto karty o 1 % pomalejší než Radeon RX 6800 a u Tom’s Hardware je porazil dokonce o 5 % a 6 %. Dále je RX 6800 o 30 %/28 %/31 % rychlejší než GeForce RTX 2070 Super (o 16 %/14 %/19 % proti RTX 2080 Super) a o 40 %/35 %/39 % rychlejší proti RX 5700 XT.

Výkon Radeonu RX 6800 XT a 6800 ve hrách rozlišení 1080p Toms Hardware Zdroj: Tom's Hardware

1440p

Pokud se zvýší rozlišení na dnes asi nejrelevantnějších 2560 × 1440 bodů, odlepí se GeForce RTX 3090 trošku a Radeon RX 6800 XT už na ní ztrácí 13 %/9 %/9 %, ale proti RTX 3080 je pořád pomalejší jen o 5 %/4 %/0,3 % (v testu Tom’s Hardware se zde Radeon téměř dotáhl, už ale není rychlejší jako v 1080p). Karta AMD je o 20 %/19 %/23 % rychlejší než GeForce RTX 3070 a o 21 %/19 %/20 % proti RTX 2080 Ti. Zvětší se i odstup od Radeonu RX 5700 XT na 77 %/69 %/70 %.

Výkon Radeonu RX 6800 XT a 6800 ve hrách rozlišení 1440p ComputerBase Zdroj: ComputerBase

Levnější Radeon RX 6800 je v 1440p trošku dál, má už jen 86 %/90 %/88 % výkonu modelu RX 6800 XT; proti GeForce RTX 3080 je o 19 %/13 %/12 % pomalejší. Je ale o 3 %/7 %/8 % rychlejší než RTX 3070 a 4 %/7 %/6 % proti RTX 2080 Ti. Karta je o 40 %/41 %/39 % rychlejší než RTX 2070 Super a o 23 %/23 %/24 % rychlejší než RTX 2080 Super. Proti Radeonu RX 5700 XT je RX 6800 o 52 %/53 %/50 % rychlejší.

Výkon Radeonu RX 6800 XT a 6800 ve hrách rozlišení 1440p Toms Hardware Zdroj: Tom's Hardware

4K

V rozlišení 4K je Radeon RX 6800 XT zase o 5 %/6 %/4 % pomalejší než GeForce RTX 3080, ale na RTX 3090 ztrácí už 15 %/14 %/15 %. Je však už o 23 %/25 %/25 % rychlejší než GeForce RTX 2080 Ti Founders Edition a o 25 %/25 %/28 % rychlejší než GeForce RTX 3070. Proti Radeonu RX 5700 XT je o 89 %/89 %/86 % rychlejší.

Výkon Radeonu RX 6800 XT a 6800 ve hrách rozlišení 4K ComputerBase Zdroj: ComputerBase

Slabší Radeon RX 6800 se v tomto rozlišení také vzdálí, už má jen 80 %/87 %/86 % výkonu modelu XT. V tomto rozlišení ale má o něco větší náskok na RTX 2080 Ti (o 6 %/9 %/8 % víc výkonu) a RTX 3070 (Radeon má o 7 %/9 %/11 % víc výkonu). Náskok na RTX 2080 Super je už 29 %/30 %/29 %, na RTX 2070 Super 46 %/50 %/48 % a na Radeon RX 5700 XT 62 %/60 %/60 %.

Výkon Radeonu RX 6800 XT a 6800 ve hrách rozlišení 4K Toms Hardware Zdroj: Tom's Hardware

Shrneme-li to podle prostředního rozlišení, je Radeon RX 6800 XT o 0–5 % pomalejší proti GeForce RTX 3080, proti níž stojí o 50 $ méně. Zároveň má nižší spotřebu a větší paměť. Radeon RX 6800 je pak o průměrně dejme tomu 6 % rychlejší než GeForce RTX 3070, proti níž ale stojí o 80 $ víc, byť opět nabízí větší paměť. Poskytuje průměrně asi 88 % výkonu RX 6800 XT – v 1080p o trošku víc, v 4K o trošku míň.

Výkon v ray tracingu se propadá o hodně víc než u Ampere

Výkon Radeonů RX 6000 a architektury RDNA 2 je ale zdá vychýlen víc ve prospěch klasických rasterizačních her než u Ampere. Pokud se totiž zapnou raytracingové efekty, sníží se výkon dost výrazně – více, než u grafik RTX 3000. Teoreticky je sice možné, že se ještě něco zlepší prací na ovladačích, ale s tím nelze zdaleka počítat jako s jistotou. V některých hrách se momentálně také objevila rozdílná kvalita nebo chyby v obraze – zatím nevíme, jestli jde jenom o bugy, jejichž oprava výkon neovlivní, nebo tyto nekonzistence snižují zátěž Ray Acceleratorů a FPS uměle zvýšili.

Radeon RX 6800 XT v sestavě her s raytracingovými efekty vychází podle Tom’s Hardware v rozlišení 1080p na 80 % výkonu GeForce RTX 3080 a jen těsně (o 1 %) rychlejší než RTX 3070. V rozlišení 1440p má 79 % výkonu RTX 3080 a proti RTX 3070 je o 4 % rychlejší. V rozlišení 4K má 77 % výkonu RTX 3080 a je o 11 % rychlejší než RTX 3070, ovšem bavíme se o průměrné frekvenci 27,3 FPS (35,6 pro RTX 3080).

Výkon Radeonu RX 6800 XT a 6800 ve raytracingových hrách rozlišení 1440p Toms Hardware Zdroj: Tom's Hardware

U ComputerBase to vychází o něco níž, RX 6800 XT má 76 % výkonu RTX 3080 v rozlišení 1080p, 74 % v 1440p a 76 % ve 4K. Proti RTX 3070 vychází o 0–4 % pomalejší.

Výkon Radeonu RX 6800 XT a 6800 ve raytracingových hrách rozlišení 1440p ComputerBase Zdroj: ComputerBase

Levnější Radeon RX 6800 pak u Tom’s Hardware vychází v 1080p o 13 % pomalejší než RTX 3070, v 1440p je o 11 % pomalejší a ve 4K je o 6 % pomalejší než RTX 3070. U ComputerBase je o 17 % pomalejší než RTX 3070 v 1080p, o 14 % pomalejší v 1440p a o 15 % ve 4K.

Všechny grafy se zprůměrovanými výsledky najdete zde v galerii.

Galerie: Výkon grafik AMD Radeon RX 6800 a Radeon RX 6800 XT ve světových recenzích

Připravenost na budoucnost: výkon v RT versus velikost paměti

Z toho vyplývá, že Radeony RX 6800 (XT) jsou silné hlavně v množině klasických her, případně v soutěživém multiplayerovém hraní, kde raytracingové efekty zapínat nebudete chtít. GeForce RTX 3000 jsou výhodnější, pokud vám závisí hlavně na tom, jak vám půjdou raytracingové efekty ve hrách, kde je bude možné zapnout (respektive budete to chtít udělat).

Současně také karty Nvidia nabízejí AI upscaling DLSS, který za cenu vykreslování ve sníženém rozlišení (takže výsledná kvalita by měla být horší než nativní, i když DLSS zároveň vyhlazuje a ostří, takže má i svá pozitiva) zvýší snímkovou frekvenci. AMD pro Radeony také nějakou podobnou funkci chystá (FidelityFX Super Resolution), ale bude se počítat pomocí výpočetních jednotek a ne tensor jader jako u Nvidie, takže bych očekával menší nárůsty výkonu než s DLSS.

Částečně lze tedy možná říci, že grafiky Nvidia jsou více „připravené na budoucnost“, jak se někdy říká, kdežto Radeon může být výhodnější pro aktuální hry. Na druhou stranu ale tuto charakteristiku zase kazí to, že RX 6800 a RX 6800 XT mají 16 GB paměti, kdežto karty Nvidie jen 8 a 10 GB; v tomto jsou tedy zase více perspektivní Radeony (v recenzích padla zmínka, že se již situace, kdy tato paměť pomáhá, respektive její absence konkurenční kartu brzdí, začaly objevovat, byť to není nějak časté). V tomto to s výhledem na budoucnost tedy není tak jednoznačné.

Smart Access Memory: bonus s Ryzenem 5000

Předchozí výkonnostní údaje z recenzí jsou pořízené s procesorem Intel Core i9-9900K, neboť to je CPU, které mají weby dlouhodobě v metodice, jen ComputerBase měřilo na Ryzenu 9 3900XT. Toto znamená, že ve výsledcích není započítán vliv funkce AMD Smart Access Memory. Ta slibuje vylepšení výkonu grafiky při spárování s procesorem generace Ryzen 5000.

Ovšem je nutné pro to zapnout volbu Smart Access Memory v BIOSu a zatím je dostupná jen u několika málo desek platformy B550/X570 (Oprava: těch desek asi nebude až tak málo, MSI nyní oznámilo vydání podpory v nových BIOSech pro všechny své desky s čipsetem generace 500). Většina uživatelů k ní tedy pravděpodobně nebude mít přístup a navíc Nvidia chystá časem něco podobného. Tudíž není nefér, že zatím není zohledněna.

AMD Smart Access Memory 01
Bez AMD Smart Access Memory může procesor přistupovat jen k 256 MB paměti na grafice najednou (Zdroj: AMD)
AMD Smart Access Memory 02
Se AMD Smart Access Memory je přístupná celá paměť najednou, což může zlepšit výkon (Zdroj: AMD)

Podle techPowerUpu Radeon RX 6800 XT i bez Smart Access Memory s Ryzenem 9 5900X možná dopadá lépe než se starším procesorem Intel, s nímž recenze proběhly – v 1080P má být jen o 2 % pomalejší a v 1440p o 1 %, ve 4K o 6 %. Smart Access Memory prý v průměru ve všech rozlišeních přidá Radeonům dva procentní body. V 1080p je pak ze souboje grafik plichta a v 440p dokonce Raeon RX 6800 XT urve těsné jednoprocentní vítězství.

K něčemu tato funkce šťastlivcům, kteří ji budou moci aktivovat, tedy evidentně je. I když možná větší pozornost si zaslouží, že se postavení Radeonu RX 6800 XT ve výsledcích zdá se trošku zlepšilo i bez Smart Access Memory, jen samotným použitím rychlejšího procesoru s architekturou Zen 3. Výkon se silnějším CPU zdá se víc narostl Radeonům než kartám GeForce.

Srovnání tloušťky karet Radeon RX 6800 dva sloty a RX 6800 XT dva a půl ComputerBase Zdroj: ComputerBase

Provozní vlastnosti referenčních karet: tentokrát dobrá práce?

Velkou – a předem avizovanou – změnou k lepšímu je, že v této generaci Radeonů mají i referenční karty chladič, jenž používá kvalitnější typ chlazení s otevřeným pasivem přes celou délku karty a s třemi axiálními ventilátory. U Radeonu RX 6800 je tlustý dva sloty (třetí byste ale měli nechat volný), u Radeonu RX 6800 XT je chladič tlustý dva a půl slotu. Oba modely ale mají stejnou délku 26,7 cm.

Refererenční PCB Radeonu RX 6800 foto techPowerUp Zdroj: techPowerUp

Radeon RX 6800 XT dostal 300W TDP a v testech ho zdá se dodržuje. Lze zapnout tzv. Rage Mode, který zvýší limit na 320 W (jako je TDP GeForce RTX 3080), pak má karta vyšší frekvence a výkon. Radeon RX 6800 má 250W TDP a také by ho neměl překračovat – někde recenze dokonce naměřily při hraní o dost méně (ComputerBase 231 W), ale to může být i výjimka či anomálie. Rage Mode by snad měl limit zvyšovat na 270 W.

Spotřeba referenčního Radeonu RX 6800 XT a 6800 při hraní ComputerBase Zdroj: ComputerBase

Excelentní hlučnost u referenční karty (RX 6800 XT)

Dobrá zpráva je, že referenční chladič má funkci fan stop, při nízké zátěži se tedy ventilátory úplně zastaví a je ticho. Vypadá to ale, že chladič se možná dost překvapivě povedl, i pokud jde o zátěž. Podle techPowerUpu je Radeon RX 6800 XT jednou z nejtišších karet, kterou v testu měli, přičemž teploty byly 77°C (hotspot 98°C, zatímco karta má zvládat až 110°C neomezeně dlouho).

Galerie: Referenční provedení grafiky AMD Radeon RX 6800 XT, oficiální vizualizace

Hlučnost je výrazně nižší, než čím se může pochlubit GeForce RTX 3080 Founders Edition od Nvidie i se svým speciálním airflow zlepšujícím designem. Zatímco u té naměřil techPowerUp 36 dB, u referenčního Reaeonu RX 6800 XT pouze 31 dB, což by měla být výrazně méně než poloviční intenzita hluku (u ComputerBase byl výsledek 37 proti 42,5 dB, takže podobný rozdíl). Referenční provedení tedy zdá se rozhodně není pro ostudu a díky třem ventilátorům dokáže v této generaci chladit lépe než design Nvidie (minimálně v podmínkách recenzí).

Hlučnost referenčního Radeonu RX 6800 XT a 6800 při hraní ComputerBase Zdroj: ComputerBase

Levnější Radeon RX 6800 už bohužel dopadl hůře. Je hlučnější než GeForce RTX 3070 Founders Edition, která je stejně tichá (nebo i tišší, 30 dB) jako RX 6800 XT. TechPowerUp naměřil u RX 6800 hlučnost v zátěži 34 dB (pořád ale o dost tišší než RTX 3080 FE s 36 dB), ComputerBase pak 41 dB proti 37 dB u RTX 3070 Founders Edition a 42,5 dB u RTX 3080 Founders Edition. I tak je to ale hlučnost slušná a lze si odškrtnout, že referenční chladič není na škodu. Teplota je navíc o dost nižší než u RX 6800 XT (70°C, hotspot 83°C), takže byste nejpíš ručně mohli ventilátory zpomalit. Možná, že ona horší hlučnost proti skvělému modelu XT by se tím o dost omezila.

Galerie: Referenční provedení grafiky AMD Radeon RX 6800, oficiální vizualizace

Nereferenční karty by měly být dostupné zhruba o týden později než referenční. Také jich asi ze začátku bude menší výběr. U těch by asi hlučnost často mohla být ještě lepší a také by například někdy mohly mít tři výstupy DisplayPort místo dvou a třetího nahrazeného USB-C, čímž jsou osazené referenční modely.

Výstupy zvládnou až 8K. Obrazové výstupy podporují až rozlišení 8K. Už je také potvrzeno, že dekodér videa zvládne dekódování formátu AV1 také až s rozlišením 8K. GPU umí komprimovat 8K video, ale jen do HEVC (zde má být kvalita enkodéru vylepšena proti předchozí generaci, jak moc, to se uvidí), podobně jako u Nvidie a Intelu není zatím přítomen enkodér pro AV1.

Návrat konkurence v nejvýkonnějších grafikách

Celkově byly karty přijaty docela dobře, v recenzích zdá se i často dostaly ocenění (například u PC Perspective, techPowerUpu „Editor’s Choice“), a to i přes onen horší výkon v ray tracingu. Zejména u modelu Radeon RX 6800 XT je asi adekvátně nižší cena proti GeForce RTX 3080, které je počin AMD velmi blízko a navíc má onu omílanou větší paměť.

Radeon RX 6800 obnáší větší nárůst v ceně proti RTX 3070 (výhoda paměti je u něj také, teoreticky ještě větší). Úplně neadekvátní to také asi není, ale pro GeForce RTX 3070 díky tomu vychází o něco lepší poměr cena/výkon, pokud paměť ignorujete.

Nové Radeony tak vypadají jako grafiky, s kterými neuděláte chybu a jsou s kartami od Nvidie poměrně vyrovnané. Možná nejdůležitější je, že tímto takováto vyrovnaná konkurence až v segmentu obsazeném modelem GeForce RTX 3080 opět existuje, protože v posledních letech si Nvidia osobovala oblast nejvýkonnějších karet jen pro sebe. Příští měsíc vyjde ještě Radeon RX 6900 XT, který by se mohl dostat ještě o kousek výš, i když GeForce RTX 3090 od Nvidie asi bude pořád v grafech okopávat zespodu a ne seshora.

CEO AMD Lisa Su s grafikou Radeon RX 6900 XT 1600
CEO AMD Lisa Su s grafikou Radeon RX 6900 XT (Zdroj: AMD)

Jak podotkl redaktor techPowerUpu, ještě před docela nedávnem se objevovaly názory, že Nvidia ujela v grafikách tak dalece, že už ji AMD nemůže dohnat. Radeony RX 6000 se ovšem dostaly dostatečně blízko, aby se dalo mluvit o konkurenci zcela plnohodnotné a AMD pro někoho překvapivě tedy tyto pesimistické názory rozptýlilo.

Toto je asi ta nejpozitivnější zpráva, i když je dobré pamatovat, že trošku přispěla i sama Nvidia. Totiž když (asi kvůli vyšším ziskům) zvolila pro herní grafiky Ampere horší 8nm proces Samsungu místo již dostupného 7nm procesu TSMC, což jí stojí energetickou efektivitu. Ale to je byznys, je možné, že když AMD vyrábělo GPU u GlobalFoundries (Vega, Polaris) možná také mělo určitou nevýhodu.

Vzhledem k tomu, že již předchozí generace Radeonů Navi RX 5700 byla vyráběna stejným 7nm procesem, AMD dosáhlo většinu zlepšení, které teď Radeony RX 6000 přinášejí, ne procesem, ale architektonickými zlepšeními. Tudíž až se – možná v příštím cyklu na 5nm procesu – oba konkurenti srazí na rovnocenné výrobní technologii, nemusí to znamenat, že bude AMD zase automaticky pozadu.

Zdroje: Tom’s Hardware, techPowerUp (1, 2, 3), PC Perspective, ComputerBase

Radeon RX 6800 a RX 6800 XT vrací plnou konkurenci do grafik. Jak dopadly v recenzích?
Ohodnoťte tento článek!
4.7 (93.08%) 26 hlas/ů

112 KOMENTÁŘE

  1. Tak odhliadnuc od fanatikov ktorí na jednej či druhej strane tvrdia „jednoznačné závery“ a tá druhá karta ja jasne horšia si dovolím povedať že RX6800 sa AMDčku veľmi podarili a nVidia má viac než zdatného súpera.

    Výkon +/- rovnaký (XT vs 3080, ale tá nVidia je predsa o pár nízkych % lepšia) resp. lepší u AMD (6800 vs. 3070) pri pri 16GB kapacite pamäte ktorú nebudete musieť riešiť (8GB u 3070ky no neviem neviem…) + lepšia spotreba (i keď za mňa 300W u 6800XT vs +/- 330-340W u 3080 nič reálne nezmení, obe karty žerú veľa).
    Aj cenovo sa to pekne poskladalo ale ceny mi príde na teraz riešiť úplne zbytočné, kúpiť hocijakú RX6000 či RTX3000 ak nie až vyslovene totálne predraženú je výhra.

    Trvalo to roky ale tak AMD má konečne ponuku od dola až nahor a pre zákazníkov v 500+++ € segmente je to len a len dobre.

    Bude super sledovať nižšie segmety ale to až po novom roku a z kto vie akou dostupnosťou…

    • de facto se od minuly generace nic nezmenilo. radeon rx6800xt zaostava za RTX 3080 stejne, jako radeon 5700xt zaostaval za RTX 2080. zda se, ze nvidia skvele odhadla, co chce amd udelat – zdvojnasobit pocet cu – a zdvojnasobili pocet svych shader units. to nakonec stacilo i pres nevyhodu 8nm procesu samsungu. big navi tak nic nezmenilo, zadnej zazrak se nekonal. dost prekvapeni je vyrazne lepsi performance/price pomer u RTX 3070 od nvidie proti rx6800 od amd. to uz tu dlouho nebylo. asi se muzeme tesit na RTX 3070ti, ktery krasne zapadne do ty mezery mezi.

      recenze pro amd nedopadly moc dobre. linus z linus tech tips radeony doslova ztrhal, ale zacal docel vtipne – AMD did not dissappoint me 😀 ale nakonec rek, ze nemuze radeony doporucit ve srovnani s nvidii 😀 a jeste brutalne ztrhal vykon productivity apps na readeonech: „zvyseni rasterizacniho vykonu neprislo zadarmo“. a jeho „fox and the grapes“ pun na ucet amd je comedy gold 😀
      https://www.youtube.com/watch?v=oUzCn-ITJ_o

      a raytracing 😀 😀 😀

      takovej propadak sem teda necekal ani ja. vykon mizernej a kdyz neni tak mizernej, je to za cenu o dost nizsi kvality raytracingu proti vystupu grafik od nvidie (watch dogs, dirt 5) 😀 palec nahoru pro J. Olsana, ze to vubec zminil (i kdyz hodne opatrne). to jsem teda necekal

      stovnani kvality treba zde:
      https://www.tomshardware.com/uk/news/the-amd-radeon-rx-6800-xt-and-rx-6800-review

      srovnani vykonu v raytracingu ve hrach, kde amd grafiky nesnizujou kvalitu, treba zde (coz koluje po celym internetu):
      https://cdn.arstechnica.net/wp-content/uploads/2020/11/rx-6800-series.001-1440×1080.jpeg

      SAM a rage mode? shrnuto slovy stevea z gamers nexus: „to jediny, co rage mode dela je, ze zvysuje teplotu a hlucnost vetraku“. v nekterych situacich rage mode dokonce nepatrne vykon snizil 😀 a SAM? vetsinou 0% rozdil, nekdy 1-2%. ale vyjimky se najdou. nvidia se rozhodla radsi udelat blacklist her, kde sam radsi ani nezapinat .. 😀

      to se amd moc nepovedlo 😉

      • No a teď zase pohled trochu vyvážený, jako protiodpověď reprezentatovi „Sqaudra verdi“:

        – RT/RTX/DXR je stále okrajová věc
        – AMD upřednostnilo výkon v rasterizaci, kde dostává nV těžce na zadek z pohledu efektivity, spotřeby i výkonu
        – Nové Radeony podávají lepší výkon v nových hrách
        – Geforce si udržely korunu v RT, ale za cenu vysoké spotřeby a ceny
        – Geforce nejde prakticky taktovat, Radeony naopak mohou poměrně bez problémů přidat cca 10% frekvence a výkonově se přehouponout přes své RTX kokurenty.
        – Radeony mají lepší chlazení než FE edice RTX, zejména 6800XT vypadá v tomto ohledu jako zjevení, které deklasuje všechno ostatní co je dnes k mání – teploty, hlučnost jsou výrazně pod běžnými hodnotami.
        – Radeony zatím nemají dořešené své „DLSS,“ které jim může pomoci s výkonem v RT
        – Geforce zatím nemají (a je otázka zda vůbec budou mít v plném rozsahu) podporu SAM
        – Radeony nejsou omezeny velikostí VRAM
        – Zákazník si může vybrat řešení podle svých preferencí a nároků.

        • a ted reality check vseho co tynyt napsal:
          „– RT/RTX/DXR je stále okrajová věc“
          jasne, a proto ted vychazi jeden AAA titul s podporou raytracingu za druhym: Watchdogs, Cyberpunk, Fortnite, Minecraft, World of Warcraft, Call of Duty, Battlefield, … 😀

          „– AMD upřednostnilo výkon v rasterizaci, kde dostává nV těžce na zadek z pohledu efektivity, spotřeby i výkonu“
          nvidia dostava na zadek z pohledu vykonu? 😀 podle recenzi ze sveta i tohohle clanku je to presne naopak a je to amd, ktery je pozadu vykonem.
          https://tpucdn.com/review/amd-radeon-rx-6800-xt/images/relative-performance_3840-2160.png
          https://cdn.mos.cms.futurecdn.net/GQouqgzXbWcqsYBwiSAVz8-2560-80.png
          https://www.youtube.com/watch?v=oUzCn-ITJ_o
          https://www.youtube.com/watch?v=jLVGL7aAYgY
          https://www.youtube.com/watch?v=NXRvqjXf4Sc

          to samy efektivita (rozdil jen 13% a to na horsim 8nm procesu):
          https://tpucdn.com/review/amd-radeon-rx-6800-xt/images/performance-per-watt_3840-2160.png

          „– Nové Radeony podávají lepší výkon v nových hrách“
          opravim te: nove radeony podavaji lepsi vykon v amd-sponsored hrach, kde je nvidia umele omezena

          „– Geforce si udržely korunu v RT, ale za cenu vysoké spotřeby a ceny“
          RTX 3080 je jen o $50 drazsi, nez 6800xt. $700 vs $650 je 8% rozdil. pritom rozdil v raytracing vykonu ve prospech nvidie je 128% u minecraftu, 67% u Control, 39% Metro: Exodus atd. a to je jen raw vykon. s DLSS je naskok nvidie jeste nekolikanasobne vyssi. pomer vykon/cena i vykon/spotreba je tak v raytracingu brutalne na strane nvidie 😉

          „– Radeony mají lepší chlazení než FE edice RTX, zejména 6800XT vypadá v tomto ohledu jako zjevení, které deklasuje všechno ostatní co je dnes k mání – teploty, hlučnost jsou výrazně pod běžnými hodnotami.“
          radeony nemaji lepsi chlazeni. jen chladi o cca 50W mene odpadniho tepla

          „– Radeony zatím nemají dořešené své „DLSS,“ které jim může pomoci s výkonem v RT“
          radeony serie RX6000 nebudou a ani nemuzou mit nic srovnatelneho s DLSS, protoze na to nemaji hardware pro akceleraci AI operaci. pokud (a to „pokud“ je dulezite zduraznit) neco dostanou, bude to nesrovnatelne nizsi kvalita. realisticky se obdoba DLSS objevi na radeonech az v nektere z pristich generaci (RDNA3, RDNA4, ..) az radeony budou mit AI akceleraci. dalsi problem amd je trenovani neuronovych siti. nvidia ma obri interni superpocitac postaveny na jejich vlastnim hardware a spoustu ai specialistu. amd nic takoveho nema. museji ty lidi nejdriv najmout, ai superpocitac postavit, pak vymyslet alternativu DLSS a pak ji natrenovat. to trva dlouho, klidne i roky

          „– Geforce zatím nemají (a je otázka zda vůbec budou mít v plném rozsahu) podporu SAM“
          tohle je jen otazka driver updatu, narozdil od amd alternativy dlss, kde chybi cela rada veci vcetne hardwaru na grafikach (viz nahore)

          „– Radeony nejsou omezeny velikostí VRAM“
          ani nvidie nejsou omezeny velikosti ram 😉

            • ale to vis, ze jsi to cetl. pak jsi vzteky rozmlatil monitor a ted odepisujes z mobilu 🤦‍♂️

            • To že projektuješ své maniákální stavy do jiných lidí, se ukazuje prakticky s každým tvým výšplechtem. 😃 Tak mi ještě vysvětli, proč bych měl rozbíjet monitor? To jako myslíš v reakci na dávku tvých výmyslů? 🤣 Vždyť tebe tady nebere nikdo vážně, ani fandové nvidie, protože ses už několikrát zesměšnil a ještě na těch svých nesmyslech sveřepě trváš. Tak proč bych tě měl brát vážně já? Dám ti jednu dobrou a dobře míněnou radu: neprožívej to tolik, uleví se ti.

            • Maudita tady ještě někdo čte? Jeho výblitky nemá cenu číst natož komentovat. Prostě lůzr, co má z AMD pocuchané nervy a potřebuje se někdy vyblít

  2. GamersNexus uz tiež vydalo recenziu 6800XT a výsledky sú dosť podobné ako v tomto článku. V 1080p/1440p je prakticky jedno, ktorú kartu máte. V 4K už Radeon trochu zaostáva, ale nie o moc. Pri použití raytracingu zaostáva výrazne (ale testovali iba zopár najznámejších hier a v nich ide o desiatky percent). A pri DLSS má RTX 3080 násobne vyššie FPS.

    Smart Access Memory dáva v niektorých hrách síce malý ale merateľný nárast výkonu. nVidia sa už vyjadrila, že to z toho dôvodu bude zapínať iba u hier, kde to bude dávať zmysel. Rage mode zvyšuje hlučnosť a spotrebu, výkon nie.

    Ale mňa najviac prekvapil chladič. Radeon používa rovnaký dizajn ako mala RTX 2080. Asi fakt nemá význam vymýšľať koleso.

  3. Ze všech těch recenzí mi vyplývá jediné – až se konečně začnou lidi zbavovat na bazarech RTX 2080 Ti, je to to nejlepší, co si lze koupit v poměru cena/výkon. 11GB paměti a vyrovnaný výkon kdekoliv včetně 4K rozlišení (s přivřením obou očí, 4K plynule v 60FPS dá opravdu jen 3090) a je na pár let klid – tedy bude se opakovat situace s GTX 1080/Ti, které byly extrémně žádané. Nebo až se situace uklidní, ceny se ustálí, tak někdy v květnu – červnu by nemusel být špatný kup 3070 za nějakých 13 tisíc – takto jsem kupoval tři čtvrtě roku po uvedení 2070S, když se dostala na své cenové minimum.

  4. Bohuzel paperlaunch. Takze stejne jako u NVidie realne v obchodech nic.
    Jinak teda podle papiru to vypada velmi dobre, kandidat na koupi az bude by byla jak RX 6800XT, tak RX 6800, ovsem ne v tovarnim provedeni, az custom karty vyrobcu, design chladice se mi totiz nelibi.

    Jedinej problem je RT, ten je u AMD snad slabsi nez bylu NVidie na Turingu. Potvrdilo se, ze v RT je NVidia o tridu jinde. Vyhodou AMD, ktera to na misce vah srovnava je ale pro zmenu 16GB pameti a to je neco, co minimalne u me tu vyhodu RT NVidie prebije.

      • Mně pořád přijde ta velikost paměti jako přeceňovaná…

        1) Smysl to řešit má jen, pokud chcete hrát v nativním 4K. Jenže standardní monitor hráčů s výkonným HW je dnes 1440p 144Hz+.
        4K 60Hz monitor moc hráčů nemá a 4K 120Hz+ monitory pořád ještě stojí několik desítek tisíc, takže jejich majitelé si většinou s klidem můžou dovolit i RTX3090, která má stejně 24GB VRAM.

        2) Viděl jsem recenzi Gamers Nexus, jejichž metodice dlouhodobě věřím nejvíc a Radeony jasně ztrácely ve 4K oproti nižším rozlišením, nejspíš kvůli horší paměťové propustnosti, kterou asi v tom vysokém rozlišení nedokáže plně nahradit ona větší cache.
        Abych byl fér, např. recenze prezentované zde toto nepotvrzují, ale všeobecně když shrnu i další bechmarky, které jsem viděl, tak buď ukazují, že Radeony mají podobný poměr výkonu k RTX ve všech rozlišeních, nebo že Radeony lehce ztrácejí dech ve 4K.

        Každopádně mi z toho mi vychází, že výhoda velikosti paměti nemá v tuto chvíli větší váhu než výhoda paměťové propustnosti.
        Mimochodem – on i ten rozdíl mezi výkonem RTX 3080 a 3090 ve hrách zrovna moc nenaznačuje, že by tam měl hrát roli onen propastný rozdíl 10GB vs 24GB VRAM….

        Takže ten důraz na velikost paměti, který v tuto chvíli často vidím, mi přijde dost neracionální. A vůbec teď neshazuji výkon nových Radeonů, jakožto konečně důstojné konkurence Nvidii.
        Jen prostě mi přijde, že ten důraz na velikost paměti je s nadsázkou řečeno rozhodování se podle toho, že aktuálně u 1 z 20 her co budete hrát ta menší velikost paměti omezí fps o několik % a za á 3 roky když tu kartu budete dávat pryč už to bude u 1 z 10 her…

        • Ne, to není jen o 4K, je to hlavně o detailnosti textur. A ty se projevují nejen ve 4K. Prostě dolezeš k cihlové zdi, koukneš zblízka na texturu a vidíš pixely. To řeší větší a detailnější textury. Jenže problém s malou VRAM je ten, že ty velké se ti tam všechny nevejdou a ve hře se to pak projevuje tím, že se snižuje framerate, nebo použijí horší textury.
          Jinak při herní retrospektivě (a pohledu na to, jak roste velikost her na HDD) je možné velmi dobře sledovat, jak náročnost na VRAM v čase roste. Například moje 5600XT (6GB) v RDR2 (hraju ve WUXGA) už si semtam hrábne ku 100% a hra v takových chvílích prostě není tak plynulá, jako v jiných situacích, přitom GPU není vytíženo na max. A to je RDR2 hra z pohledu 3. osoby, takže technicky vzato nikdy nebudeš mít problém s detaily textur při velmi blízkém zkoumání. Nové hry, které přijdou s novými konzolemi, budou samozřejmě zase o kus dál.

        • Jak pise Tynyt, VRAM neni o „4k“. Staci se podivat na testy Doom-a, k jakemu propadu dojde treba u NV 3070 vs 6800, ktera (sice ve 4k) narazi na limit u maximalniho nastaveni textur.
          https://static.techspot.com/articles-info/2146/bench/4K-Doom.png
          vs
          https://static.techspot.com/articles-info/2146/bench/1440p-Doom.png
          „At 4K, the RTX 3070 seems to be running out of VRAM as the game requires 9GB of memory at this resolution and settings. As a result the RX 6800 extends its lead to 31%, going from 120 fps right up to 157 fps.“

        • Ok, pánové, respektuji váš názor.
          Pořát to vidím trochu jinak, spíš jako výjimky a hlavně jako věc, už zahrnutou v benchmarkových grafech výkonu těchto karet (pokud to skutečně má dopad ve větším množství nových her), ale třeba se pletu.

          • hele, já benchmarky nehraju… podstatné je to, zda ta hra co chci hrát pojede bez lagů nebo ne. 5600XT jsem koupil jako „nouzovku“ – nechtěl jsem užranou 5700XT a líbila se mi tichost a efektivnost 5600XT – bohužel má jen 6GB. Na aktuální/starší hry to víceméně stačí, ale je to už na hraně a nové hry ta karta asi nedá v nejlepších nastaveních bez složitého přesypávání textur, byť čistě výkonově by to v daném rozlišení problém být neměl. Takže to není o výjimkách, ale o tom, jak ta hra potom vypadá. A věř mi, že nekvalitní textury poznáš na první pohled, daleko víc, než nějaké „RT stíny,“ ale rozhodně nemíním trpět na lagy… Nicméně to je moje vnímání hraní, tobě třeba pocukávání a záseky nevadí.

            • To to beru, ale zase jak víš, jak moc ty lagy a poruchy textur způsobuje velikost paměti a jak moc jen 192-bit sběrnice s 12GHz pamětí? Dost možná obojí, protože lepší propustnost
              dokáže z části kompenzovat nedostatek velikosti a naopak.

              S tou propustností mě napadá např. 1070Ti vs. 1080, kde byla u 1070Ti pomalejší paměť stejné velikosti a rozdíl ve výkonu byl větší než rozdíl v teoretickém výkonu těch dvou GPU, takže tam ta propustnost paměti musela mít nějaký vliv a to v ní nebyl tak velký rozdíl.

              Zpět k novým grafikám – tam je to větší sběrnice a rychlejší paměti vs. větší paměti a větší cache. A podle informací, které zatím mám, je výsledkem plichta. Samozřejmě, kdy a v jaké hře bude mít někdo lagy se z recenzí těžko pozná, to uznávám, ale nemyslím si, že u RTX 3080 nebo 6800XT by někdo měl mít v příštích několika letech jakýkoli problém s výkonem a plynulostí…

              A uznávám, že RTX 3070 s menší pomalejší pamětí není tak atraktivní, osobně myslím že bude mít smysl jít buť do 3080 nebo až do 3060Ti, jakožto do už vyloženě levnější karty s pořád tou 8GB VRAM. A uvidíme co do té á $400 kategorie a pak ještě do nižších přinese AMD, třeba tam bude kompetitivnější proti Nvidii a bude ji porážet. 🙂

              Jinak ještě – s testováním využití paměti je to hrozně problematické. GPU-Z apod ukážou alokovanou paměť, ale většinou jen engine-level nástroje dokážou zjisti,t kolik reálně ta hra využívá. A pak se u některých her, které podle GPU-Z „sežerou“ nečekaně velké množství paměti ukáže, že jí reálně využijí jen část.

              Já teda nemám co říkat s 11GB na 1080Ti, ale i podle toho GPU-Z naprostá většina her z posledních let té paměti nealokuje víc jak řekněmes těch 8GB, co jsem tak sledoval.

            • Ohledně té propustnosti: tady je právě třeba se kouknout, co je jak rychlé.

              HDD: max. cca 200MB/s
              SATA SSD: max. 550MB/s
              NMVe SSD: max. cca 3 500GB/s (nepočítám PCIe 4.0)
              DDR4-3600 RAM: cca 30 000MB/s
              GDDR6 RAM na 5600XT: cca 288 000MB/s

              Jak vidíš, je to poměrně pěkná „pyramida“ a běžná RAM je 10x pomalejší, a pozor, neslouží primárně k tomu, aby bufferovala VRAM (podobně u VRAM platí, že kromě přetahování dat z RAM slouží primárně k práci s již uloženými daty). Z toho plyne, že maximální (teoretická) rychlost přesunu objemných dat do VRAM bude probíhat maximálně rychlostí 30 GB/s – problém je ovšem v tom, že tato rychlost bude ovlivněna tím, že si na přenos budeš muset „počkat,“ navíc s jednoznačným předpokladem, že data v té RAM už jsou.

          • Nesmíte žít ve světě omezeném na vestavěné encodéry v GPU. Ty jsou možná vhodné když je čas limitovaný (gameplay) a na kvalitě nezáleží. Při produkci videa je typicky výstupem render v maximální kvalitě (v minimálně ztrátovém či zcela bezeztrátovém formátu) a teprve úplně na konci se tento převádí do výstupních H.264/HEVC pomocí externích encodérů.

            • Aha, takže náročný amatér – videograf má podľa teba používať na záznam nekomprimovaný formát, z videoeditoru exportovať znova raw formát, aby nakrásne použil externý kóder….dík za radu, to tak nefunguje….
              Snáď si nemyslíš, že celá plejáda hi-tech videofoťákov s veľkým snímačom FF/APS-C produkuje nekvalitné video len preto, že snímajú v komprimovanom formáte ??

            • Osobně neznám žádný NLE, který by exportoval raw formát. Platí, že H.264/HEVC jsou formáty navržené pro šíření obsahu ke konzumentovi a to že je využívají výrobci DLSR na pořízení záznamu jde na vrub omezených HW zdrojů, jejich lenosti či snaze nekanibalizovat si svůj vyšší segment. Někteří jdou tak daleko, že DSLR limitují v dostupnosti All-I, při zpracování videa je pak IPB při zpětném scrubbingu po timeline značně nepřirozenou úlohou. Jsou samozřejmě vyjímky mezi výrobci kamer, kteří nemají problém i u cenově dostupných kamer nabídnout záznam v RAW. U raw formátů, které jsou typicky „All-I“ se pak dá často (ideálně za přispění GPGPU) pracovat s originálním materiálem i bez nutnosti vytvářet proxy.

              Je si třeba uvědomit, že samotný encoding je typicky tou nejméně náročnou úlohou při renderingu. Takže rendering do finální H.264/HEVC by byl neefektivním například pokud je vyžadováno několik výstupů při různých parametrech (chroma subsampling, bitrate, ….). Je efektivnější s použitím výstupního souboru v bezeztrátovém formátu opakovaně spustit samotný encoding s definovanými parametry, než vždy renderovat celý projekt.

            • Mě štve že typicky bohužel ty softwary neumí ten pracovní soubor vyexportovat v nějaký schopnější bezeztrátový kompresi, takže třeba u toho DaVinci to IIRC je že buď člověk uloží jako RAW YUV, nebo používá nějaký ty komprimovaný formáty. Ale to opravdu pak není HEVC a už vůbec ne AV1 lol, ale věci jako prores. S HEVC/AV1/AVC by si člověk dost mrvil kvalitu kvůli „generation loss“ a tomu, že ty kodeky nejsou na tuhle roli připravený a nepočítají s tím, že musí přestát mnoho průchodů bez příliš viditelné škody.

            • Bohužial, nerozumieme si, neriešim videoštúdiá, ale potreby náročného amatéra z rozpočtom 6-8 tisíc EUR s prioritou najvyššej možnej kvality distribučného formátu – final produkt neurčený na edit. S prvým odstavcom tvojho príspevku nesúhlasím v podstate s ničím, proxy nevytváram / nemusím.
              Druhý odstavec – chápem, čo chceš povedať, ale k takému pracovnému postupu nie som nútený.
              K náročnosti – stačí porovnať čas exportu HEVC 4K/60p 10-bit
              procesorom vs. nVidia kartou….
              Prikladám ďaleko vyššiu pozornosť kvalite záznamu optika – snímač /dynamický rozsah, šum, farby/ ako bitrate, respektive raw vs. kompri…..samozrejme rešpektujem tvoj názor, svet neni jednofarebný…

            • „neriešim videoštúdiá, ale potreby náročného amatéra z rozpočtom 6-8 tisíc EUR s prioritou najvyššej možnej kvality distribučného formátu – final produkt neurčený na edit.“ –> software enkódování, s co nejvyšším (nejpomalejším) presetem kvalit co jde (a pak dobře nastavit psychovizuální optimalizace a hlavně nešetřit na bitrate…)

              „Prikladám ďaleko vyššiu pozornosť kvalite záznamu optika – snímač /dynamický rozsah, šum, farby/ ako bitrate, respektive raw vs. kompri…..samozrejme rešpektujem tvoj názor, svet neni jednofarebný…“
              To může být důležitější, ale pak taky nastupuje fenomén, kdy sice mám super vstup, ale další zpracování hodně pokazí, tj. i na tu druhou věc se musí dávat pozor.

            • Řeč je o zpracování videa, takže předpokládám zadání kvalitativně vyhovující vstup v rámci toho co nám rozpočet na akci dovolí pořídit (či si pronajmout).

              Jde o to, že toto vlákno vzniklo jako má reakce, že u grafické karty z pohledu (náročnějšího) zpracování videa (akcelerace renderingu v Davinci Resolve, pokud budu konkrétní) mohou být z hlediska efektivity využití daleko důležitější věci než vestavěný HW encodér. Proto jsem psal v prvním příspěvku, že tvrzení platí pokud se na svět díváme jen optikou hráče (obecně toho s menšími nároky na kvalitu encodingu). Jako příklad si vezměme Radeon VII pro herní užití značně nevhodná podávala v DR slušné výkony při rozumné ceně včetně 16GB framebufferu.

              U RDNA2 nebylo jisté zda optimalizace AMD směrem k hernímu výkonu toto výpočetní nasazení (z hlediska podávaného výkonu) neohrozí. To se zatím z výsledků DR benchmarků neukazuje. Což je pozitivní zprávou i pro mne jako zájemce o 3080Ti@20GB jež má být naceněna na 999US$. Bez úspěchu Big Navi ať již námi přiznaného či nikoli bychom Geforce nakupovali určitě dráž.

            • @JO – ale Janku, prečo tak tvrdošijne trváš na pravekom názore – ak kvalitu, tak soft. enkódovanie ??
              Stavím sa s tebou o basu Budvaru, že kvalitný výstup z GPU nerozpoznáš….

            • Nemotaj sa do debaty dospelákov stacho, odchod do garáže…a hned….

            • Blaho, „amatér s rozpočtem 6-8 tisíc EUR“ rozhodně nebude enkódovat s HW nvenc, LOL.

              Je to jak píše J.O. – používá se výhradně SW cesta encodingu, maximálně s akcelerací některých kroků přes CUDA nebo OpenCL.

            • @tynyte, prdičky starý babičky….HW akceleráciu implementovali do profesionálnych softwérov také ikony ako Final Cut, Adobe Premiere, Resolve Davinci atd.
              Zlez zo stromu píše sa rok 2020…nesmieš sa dať namotať truhlíkovi stachovi, ktorý sa vyzná do editácie videa ako Blekota do problematiky potratov…

        • Škoda, že nikdo neotestoval škálování dvou RX6800 v Davinci Resolve. Mohla by to byt zajimava vykonova/cenova alternativa pro 4K/6K timeline (na 12K BMD explicitně zmiňuje 24GB VRAM, pro 8K 20GB 😉 ).

  5. Obě karty vypadají na grafech dobře. Je mi to celkem jedno, přišel mi Series X v první vlně, takže budu zaškatulkován do AMD tábora (nebo mají konzolisti speciální gulag?)
    Zajímavý názor co jsem slyšel je, že Nvidia už ke svým produktům automaticky dává přidanou hodnotu, kterou zatím AMD nemá. DLSS, Shadowplay nebo konferenční nástroje (které jsou vzhledem k situaci docela užitečné). Nevyužije to každý, ale už to překonalo ty prvostní porodní bolesti a dá se to používat. Ovladače neřeším, Nvidia mě teď vypekla s podporou Forza Motorsport 7, takže problém se může stát u obou stájí.

  6. Slabý herný RT výkon nové Radeonky nepríjemne deklasuje v očiach hráčov, na testy výkonu AI /foto/ a schopnosti video enkódovania čakáme /zrejme na zázrak/….
    nVidia má lepšie karty…

          • takýmto spôsobom sa to dalo povedať aj keď sa prechádzalo z DX7 DX8 DX9 a tak podobne. PRetože hry na to neboli pôvodne prispôsobené. Postupom sa začali hry na to adaptovať. Takže vravieť že RT je najzbytočnejšia vec, je dosť scestné. Máme tu RT, u Nvidie implementácia RT funguje na rozdiel od AMD na výbornú. Výkon s RT je tiež vysoký. Uvidíme postupné adaptovanie RT do hier.

            • Ono se to teď dá brát prostě tak, že RT + DLSS je u Nvidie taková přidaná hodnota. Použití pořád není tak moc rozsáhlé a ne každý ho vůbec využije i v případech, kde existuje. Na druhou stranu už to není jak při vydání Turingu, kdy použití bylo prakticky nulové, RT výkon nepoužitelný, DLSS nepřesvědčivé. Aktuálně je to mnohem lepší a využití bude přibývat, ale pořád je to minoritní záležitost, takže ona přidaná hodnota navíc a ne ještě základní funkce grafiky (to dost možná za další dvě generace).

              AMD tuto přidanou hodnotu nemá, protože jeho RT není ani na úrovni Turingu a jeho verze DLSS bude bez Tensor Cores těžko průlomová. Dalo by se tedy říct, že by AMD za to mělo nabídnout trochu lepší poměr/cena výkon v běžných hrách.
              To se úplně nestalo, protože mi ten poměr přijde naprosto identický s RTX kartami, když vezmu nějaký střed recenzí, tzn. 6800XT lehce ztrácí na 3080 a 6800 je mírně nad 3070, což přesně odpovídá jejich cenové pozici.

              Argument větší paměti moc neberu, protože pokud to má reálný vliv na výkon v tuto chvíli, je to již započítáno do výše zmíněného poměru cena výkon (jestli větší paměť zvýšila nebo nezvýšila finální výkon je z tohoto pohledu dost jedno) a bavení se o hypotetických budoucích hrách je úsměsvné v sektoru (hi-end HW), kde lidé upgradují grafiky nejčastěji každou 1-2 generace, tzn. 2-4 roky.
              Kdo plánujete mít tu grafiku třeba 6 let a víc, tak OK, argument budoucích her pak beru víc, ale většina lidí co kupují nové hi-end PC komponenty nevydrží přeskočit více jak jednu generaci grafik, a to ještě ta generace musí být nezajímavá (Turing)…

              Jinak ohledně HW enkodéru – kdo chce streamovat/nahrávat přes NVENC, tak si automaticky koupí Nvidii (to platí už několik generací) a koho to nezajímá, tak to nebude brát v úvahu při koupi. Takže to spíš Radeonům ubere jednu skupinu zákazníků, než že by to mělo být něco, co bude brát v úvahu většina lidí.

            • Mně připadne zcestná spíše tvá argumentace. Já nehraju hry kvůli RT nebo DLSS, dokonce často ani ne kvůli tomu, jak vypadají, ale proto, abych si zahrál a pobavil se.
              A stojím si za tím, že RT + DLSS je pro mě (osobně – to znova opakuju) zbytečnost. Jednak kvůli výše uvedenému a pak taky proto, že z těch několika her, které zatím podporu pro RT mají, mě oslovuje naprosté minimum, většinu z nich ani neplánuju koupit.
              Druhá věc je ta, že tenhle hype okolo RT se zatím ukazuje jako hype; zatím je to tak, že implementaci RT technologií sponzorují výrobci HW, nejde o etablovanou/zažitou/standardní technologii. Nabízí se tu srovnání s přehypovanými staršími technologiemi, které jsou dnes už mrtvé, nebo zcela na okraji zájmu: PhysX, Hairworks/TressFX, nebo VR. Jestli takto dopadne i RT, to je samozřejmě ve hvězdách, nicméně platí, že až/pokud RT bude etablováno, budou dnešní karty (a rovněž většina dnešních RT-enabled her) zcela nepodstatné – karty budou mít nedostačující výkon a hry nebude (až na nadčasové výjimky) nikdo hrát.

            • Pokud tou zcestnou argumentací myslíš tu VRAM, tak viz příspěvek výše – nebudu se o tom dál přít.

              Pokud se ti přijde zcestný můj argument o „přidané hodnotě“, tak moc nechápu proč. Že nechceš ty funkce použít – OK, v pořádku, ale pokud se snažíme o alespoň trochu objektivní hodnocení, tak pokud existují dva téměř stejné produkty za stejnou cenu (zjednodušeno, v praxi 4 produkty s téměř stjeným poměrem cena/výkon) a jeden má nějaké takovéto „bonusy“ navíc, tak to podle mě nutně váhu má, byť to neznamená, že produkt bez toho by si konkrétní lidé neměli kupovat.
              A já chápu, že AMD asi nemohlo jít cenou ještě o 50 nebo 100 dolarů dolů kvůli marži. Ale kdyby to udělali, byly by ty karty skutečně dobrá koupě a pro většinu lidí lepší jak RTX karty. Takto souhlasím s tím, co mi přišlo jako nejčastější závěr recenzí, parafrázovaně: „Karty jsou to fajn, není důvod je nedoporučit, ale zároveň není moc kvůli čemu je doporučit oproti Nvidii“. Tzn. důstojná konkurence, ale žádná bomba.

            • Dále, ohledně RT a DLLS, jako technologií, které podle tebe nejspíš časem umřou:
              Samozřejmě to stále asi vyloučené není, ale evidentně ani AMD to tak nevidí, jinak by radši přidali shadery při zachování velikosti křemíku a porazili Nvidii v rasterizaci, místo aby plýtvali zdroji na vývoj a místem v jádře na to, aby tam cpali RT akcelerátory (i za cenou, že budou výrazně slabší než u konkurence) a pokoušeli se o inteligentní upscaling i bez AI akcelerátorů, jen aby měli alespoň něco. Takže na mě to spíš působí tak, že AMD také vidí v RT budoucnost a snaží se co nejrychleji dohnat Nvidii a zároveň ukázat, že už i aktuálně něco má, byť v tomto o generaci pozadu.

              Btw – klidně si najdi moje staré příspěvky – v první generaci jsem DLSS neoznačoval moc lichotivě, protože to způsobovalo u prvních her často shimmering a kvalita opravdu nebyla nic extra.
              Ale nedávno jsem viděl několik analýz grafiky nové verze DLSS a u některých her (např. Control) to opravdu bylo na úrovni nativního 4K, takže minimálně už Nvidia dokázala, že je možné udělat to dobře.

              Jak moc rychle se jeho implementace rozšíří a v kolika případech bude takto dobrá těžko říct. A viz výše – nepovažuji RT a DLSS za nějaký svatý grál, ale jen za bonus a můj osobní tip je, že jako základní funkce karty a podstatná součást většiny nových her to bude tak za 5 let.

            • Podívej, ty tady operuješ s NVENC, jako by AMD nemělo něco podobného – jenže ono má. A s ohledem na (ne)kvalitu obého je poměrně jedno, jestli NVENC dosahuje mírně nižšího bitrate při stejné vizuální kvalitě.
              Co se RT týká, je součástí DX, takže podporu do čipu zřejmě přidat musí, aby se mohli honosit podporou DX12blabla, stejně tak kdyby podporu vypustili úplně, strefovali by se do nich fandové nvidie, že to neumí. Za mě je to zbytečnost, stojím si za tím už poměrně dlouho a ani AMD mě nepřesvědčí, že za současné výkonové situace to má smysl. DLSS je pak z nouze ctnost, kdy se nedostatek výkonu kompenzuje trochu lepším upscalingem. Control je pak hodně specifická hra, kde upscaling bude mít vždy úspěch kvůli designu textur – doporučuju prozkoumat: většina z nich nemá žádné výrazné malé detaily, takže AI upscaling nemá problém s interpolací. Stejně tak analogie DLSS od AMD bude mít za úkol jedinou věc: navýšit nedostatečný výkon.

            • Ty encodéry jsem pravda podrobně studoval v době Pascal vs Polaris/Vega a tehdy ten rozdíl ale byl opravdu velký.
              Takže teď nemůžu posoudit, jestli se třeba daný rozdíl nezmenšil, prostuduji si o tom časem nějaké aktuální recenze. 🙂

              Jinak moje zkušenost s NVENCem na 1080Ti je, že pokud v OBS člověk nastaví klouzavý bitrate a kvalitu na úrovni, že bitrate se pak dle hry a prostředí ve hře pohybuje někde mezi 15-30Mb/s v 1080p, resp. 25-50Mb/s ve 1440p, tak ta kvalita je dost slušná – např. nesrovnatelně lepší, než cokoli co projde YT komprimací… A i ve 1440p to vezme kartě do 10% výkonu, což je hodně slušné.

              Ale nejsem na tohle vážně expert, takže jen říkám uživatelskou zkušenost.

            • K tomu RT ještě – vím, že si za tím stojíš dlouhodobě a dají se pro to rozhodně najít argumenty. Vývoj mě ale zatím přesvědčuje spíše o opaku, tzn. že (min. velká studia) budou implemetaci DXR a DLSS dávat do her postupně častěji a častěji.

              Asi je to také dost otázka na vývojáře her. Kolik z nich si myslí, že nejlepší cesta k lepší vizuální kvalitě by bylo jít po maximálním rasterizačním výkonu karet a kolik z nich je názoru, že rasterizace jako metoda už se dostává ke svým limitům a pokud chtějí posouvat vizuální kvalitu her výrazně dál, tak už jim rasterizace a její možnosti kladou u moc velké překážky a DXR efekty naopak nabízí možnosti, které by standardně neměli a má smysl se je snažit co nejvíce použít – v tom výkonostním rámci grafik, který v tuto chvíli existuje a samozřejmě v RT stále ještě není tak hvězdný.

              Osobně jsem od vývojářů zaznamenal už obě verze, takže aby si člověk vybral…

      • Otázky znejú – prekonalo AMD samo seba, implementovali tak kvalitný a rýchly encoder ako konkurencia ? Ako kvalitatívne a rýchlostne sa vysporiadali pri vykresľovaní zložitých efektov a filtrov v konkurencii technológie CUDA ? Disponujú stabilnou a kvalitnou softwérovou podporou ?

    • že se první várka vyprodá prakticky okamžitě, to byla jasná tutovka. Ten zájem je obrovský a prodá se úplně všechno.
      Otázkou spíše je, jak velký „týdenní“ objem výroby teď AMD dodává na trh? To bude jasné během pár týdnů, kdy se buď zopakuje blamáž nvidie, nebo se karty budou postupně vydodávat objednatelům. Druhá věc je, jak do toho zapadnou AIB se svými modely, třeba je půlka vyrobených čipů teprve v alokované výrobě u AIB? To se opět projeví do cca měsíce.

        • co to plácáš? AIBs jsou Sapphire, MSI, Asus, ne nějaký ušmudlaný CZC, co většinu karet nastrká do svých předražených sestav.

          Apropos, psal jsem o čipech, ne o kartách.
          BTW, ve 100mega mají skladem přes 500ks RX5700XT Nitro – takže mi chceš tvrdit, že to znamená, že AMD dodnes vyrábí jen staré Navi1 namísto Navi2? Anebo to je třeba tak, že karty AIB jsou v pipeline a budou za pár týdnů?

          • Lenze ludi nezaujimaju nejake kusy RX 5700 XT Nitro – to je zrejme, len, aby sme si upresnili, o com je rec…netvrdim, co vyraba, tvrdim, aka je situacia na trhu a este dlho asi bude pokracovat, nechapem len jedno, preco sa AMD vysmievalo z ala paper launch Nvidie, ked maju podobnu situaciu:
            https://www.notebookcheck.net/AMD-s-Frank-Azor-hints-at-plentiful-Navi-2x-GPU-launch-stocks-that-could-prove-problematic-for-Nvidia-this-holiday-season.495389.0.html

            • Musíš myslet logicky: jestliže AMD dokáže vyrobit tisíce „starých“ Navi1, proč by mělo mít problémy na stejném procesu vyrábět opět tisíce Navi2? Navíc zřejmě takové problémy s výrobou nemají, když si můžou dovolit produkovat Navi1 na úkor dlouhodobého syslení čipů Navi2.

              Dále: rozdíl mezi AMD a nV je v tom, že nVidia své grafiky prodává už od zaří (septembra – tj. už 2 měsíce), kdežto AMD začalo před cca 10 dny a modely AIB teprve dorazí. Až se ukáže, že i poté je těch grafik podobně málo jako u nVidie, tak teprve potom můžeme mluvit o nějakém paperlaunchi. A mimochodem, takové situace s nedostatkem nových karet při uvedení tu jsou prakticky stále.

  7. Veľmi pekné karty, ak budú dostupné je to už len o preferenciách aké hry alebo SW človek hrá/používa alebo ktoré technológie sú preňho dôležité.
    Dizajnovo sú mi teraz bližšie NV, cenovo je to jedno všetky vydané karty sú mimo hranice čo zato som ochotný dať.
    Jedine čo ma prekvapilo (nemilo) u AMD je výkon v 4K, ako sú v FHD a QHD výkonovo narovnako tak v 4K začínajú strácať, a teraz čím to je ovládačmi, síce viac pamäte ale pomalšej alebo menší rasterizačný výkona a pri nižšom rozlíšení sú karty NV viac brzdené, no rád by som vedel prečo to tak je. Takže mi teraz 16GB pamäte nepripadá ako to čo musím mať lebo ten výkon tam zatiaľ nieje čo bude o tri-päť rokov bude ma až tak nezaujíma lebo nehrám také hry aby ma to tankovalo.

    • On Warzone nemá pověst úplně dobře optimalizovaného titulu a občas spadne lidem s různýma kartama. 😀

      Každopádně problémy s padáním nějaké hry se najdou vždy. Taky mám 1080Ti a před pár měsíci jsem hrál podruhé DOOM 2016 (poprvé na této kartě) a jednou za několik hodin mi ta hra prostě spadla – přitom jinak téměř dokonale optimalizovaný titul, stabilních 200fps (engine-cap) ve 1440p na Vulcanu, ale prostě stane se a nezjistil jsem čím přesně to bylo. Ethernal mi to neudělal ani jednou. Vždycky se najdou takové případy, jen to nesmí být moc často… 😀

  8. Povedene karty, povedene referencni chlazeni, uz jen aby sli koupit 😉
    NV ma pro neokho vyhodu v „SW baliku“ okolo, ala (DLSS, RT, NVENC). Pro zbytek obyvatelstva, kteremu neni lito, za to dat ty penize, asi neni moc co resit – dobre karty.

    • souhlas … teď aby bylo karet víc než dost a upravily se ceny … včera jsem málem koupil 6800, nestihl jsem … za nvidii takový pakl nedám a jak koukám na ty ceny, 3060 ti bude dle těch ceníků stát 15 tisíc … na to seru

  9. Divím se, že jste si dali práci s nesrozumitelnými texty typu:

    „V rozlišení 4K je Radeon RX 6800 XT zase o 5 %/6 %/4 % pomalejší než GeForce RTX 3080, ale na RTX 3090 ztrácí už 15 %/14 %/15 %. Je však už o 23 %/25 %/25 % rychlejší než GeForce RTX 2080 Ti Founders Edition a o 25 %/25 %/28 % rychlejší než GeForce RTX 3070. Proti Radeonu RX 5700 XT je o 89 %/89 %/86 % rychlejší.“