Nvidia GeForce RTX 3080 vydána. Výkon, spotřeba a výsledky v recenzích

261

GeForce RTX 3080 je vydána a otestována. Karta přináší parádní nárůst výkonu při stejné ceně. Je to ale za cenu GPU vyhnaného vysoko už v základu, takže přetaktování, spotřeba a efektivita nejsou nic moc.

Čekatelé na nové grafiky Nvidia GeForce generace Ampere už to mají tady. První model, GeForce RTX 3080 se začal prodávat včera od 15:00. Recenze custom karet vyšly ve stejném čase, ale už o den předtím vyšly v předstihu testy provedení Founders Edition, což je verze karty prodávaná přímo Nvidií a také ta, jejíž fotky jste viděli všude během odhalení a následujících článcích.

Už jsme se věnovali odhalení a tomu, co kartách tehdy říkala sám šéf Nvidie Jen-Hsun Huang a poté ve dvou částech architekturou (podrobný článek a část informací předtím v menším). Teď se tedy podíváme na to, jaký herní výkon předvádí GeForce RTX 3080 v těchto prvních recenzích.

Předchozí
Následující

GeForce RTX 3080: jak dobře dopadl výkon?

Pro rychlou rekapitulaci: GeForce RTX 3080 obsahuje čip GA102 ořezaný na 8704 shaderů (vysoké číslo je kvůli změně architektury zdvojnásobující počet FP32 jednotek na jeden blok SM proti Turingu). GPU běží na 1440 MHz v základu, takt boostu je uváděn 1710 MHz. Karta má 10 GB paměti GDDR6X (jde o zcela novou technologii od Micronu, na které Nvidia spolupracovala), ta má takt 19,0 GHz a spolu se 320bitovou sběrnicí propustnost 760 GB/s.

Poněkud horší je TDP, 320 W, což se na kartách ostatních výrobců bude obyčejně napájet dvěma osmipiny (někdy třemi). Ale karta Founders Edition od Nvidie má místo toho speciální 12pinový konektor, jenž ovšem dnes vyžaduje adaptér (je v ceně). Nvidia ho nabídne ke standardizaci, zatím je z pohledu standardu zdrojů proprietární. Cena karty je oficiálně 699 $/699 € au nás 18 999 Kč. Oficiální částka je tedy stejná jako u modelu RTX 2080/RTX 2080 Super, Ampere na rozdíl od Turingu v roce 2018 nezdražil.

Nvidia GeForce RTX 3080 05
Nvidia GeForce RTX 3080 (Zdroj: Nvidia)

Z webů, které tradičně odkazujeme a „používáme“ má recenzi karet Founders Edition vydanou techPowerUp, PC Perspective (test na Ryzenu 9 3900X), Tom’s Hardware a německý ComputerBase. AnandTech bude mít zpoždění, částečně i kvůli ničivým požárům v Kalifornii.

Výkon: nejlepší v 4K, přínosy v 1080p limituje procesor

A teď už k výkonu. Jak už bylo od začátku jasné, Ampere bude výrazně větší mezigenerační nárůst výkonu než Turing, ale otázka bylo, kolik procent to přesně znamená. RTX 3080 je možné zhodnotit tak, že jde teď o skvělou grafiku pro rozlišení 4K (ovšem pamatujte, že je to zatím jediný model nové generace, takže výhodnost a „ideálnost“ by se měla hodnotit až když se aktualizuje celý kádr). Na nižších rozlišeních je totiž GPU typicky limitováno výkonem procesoru a možná by se také mohlo ukazovat to, že velké množství FP32 jednotek se na nižších rozlišeních s vyšší důležitostí geometrického výkonu méně uplatní (to je ale jenom hypotéza).

3840 × 2160

Ve 4K má ale každopádně karta nejlepší výsledky a zároveň docela slušné hratelné FPS (60+), takže označení za 4K grafiku není žádné přehánění. Podle ComputerBase, techPowerUpu a Tom’s Hardware – uvádíme hodnoty pro všechny v tomto pořadí – vychází GeForce RTX 3080 o 60 %/56 %/58,8 % rychlejší než GeForce RTX 2080 Super a o 31%/32%/32,7 % rychlejší než GeForce RTX 2080 Ti (mělo by jít o verze Founders Edition, 2080 Ti je tedy přetaktovaná).

Proti původní RTX 2080 (zase Founders Edition) uvádí Tom’s Hardware nárůst o 71,2 %, TechPowerUp uvádí výkon vyšší o 67 %. Proti Radeonu RX 5700 XT vychází přesně dvakrát rychlejší (+100 %) u ComputerBase a techPowerUpu, v metodice Tom’s Hardware vychází RTX 3080 „jen“ o 90,3 % rychlejší.

Výkon Nvidia GeForce RTX 3080 FPS rozlišení 4K ComputerBase Zdroj: ComputerBase

2560 × 1440

V rozlišení 1440p vychází GeForce RTX 3080 o 52 %/43 %/45 % rychlejší proti GeForce RTX 2080 Super a o 28 %/24 %/23,9 % rychlejší proti GeForce RTX 2080 Ti. Radeon RX 5700 XT poráží tato nová karta Ampere o 88 %/75 %/75,6 %. Původní model RTX 2080 Founders Edition předstihuje podle TPU o 52 % a podle THW o 55,5 %.

Výkon Nvidia GeForce RTX 3080 FPS rozlišení 1440p ComputerBase Zdroj: ComputerBase

1920 × 1080

V rozlišení Full HD, zajímavém například pro soutěžní hráče nebo majitele vysokorychlostních monitorů, má GeForce RTX 3080 relativně nejmenší přínos. Proti GeForce RTX 2080 Super je rychlejší o 40 %/30 %/33,8 %, proti GeForce RTX 2080 Ti o 21 %/15 %/18,3 % a proti Radeonu RX 5700 XT jí vychází o 69 %/54 %/57,2 % lepší výkon.

Proti původní GeForce RTX 2080 Founders Edition uvádí techPowerUp nárůst o 35 % a Tom’s Hardware o 42,5 %.

Výkon Nvidia GeForce RTX 3080 FPS rozlišení 1080p ComputerBase Zdroj: ComputerBase

Souhrnné grafy z těchto recenzí si můžete prohlédnout v galerii. Přiložili jsme i tabulku webu 3DCenter.org. Která uvádí relativní výkon různých grafik k GeForce RTX 3080 v recenzích různých redakcí a průměr mezi nimi; tyto výsledky jsou jen čistě pro rozlišené 4K, kde to Amperu nejlépe proudí.

Výkon různých grafik proti Nvidia GeForce RTX 3080 rozlišení 4K 3DCenter Zdroj: 3DCenter.org

Galerie: Výkon Nvidia GeForce RTX 3080 ve světových recenzích

Kde je 2× výkon proti RTX 2080?

V reakcích se občas objevila poměrně oprávněné kritika, že karta nemá – alespoň pokud průměrujeme pro odbourání extrémních výchylek – ve hrách 2× výkon proti GeForce RTX 2080, jak Nvidia (slovy svého CEO) při vydání slibovala. Zde je klíčové, že u toho palebně krylo ústupovou cestu ono slovo „až“. Ovšem v tomto případě to jeho význam možná napíná, protože takovéto zrychlení podle všeho není moc typický případ. Linus z Linus Tech Tips dostal k této diskrepanci vyjádření, že 2× zrychlení by karta měla dosahovat v plně raytracingových (path-traced) hrách jako je Quake RTX. Ovšem prakticky všechny hry jsou dnes a ještě asi pár let budou hybridní.

Renderování v Blenderu nárůst výkonu RTX 3080 proti RTX 2080 Zdroj: Linus Tech Tips

Nicméně dobrá zpráva je, že až tak nesplněný tento slib není, protože toto 100 % (a někde i o trošku vyšší) zrychlení proti RTX 2080 zdá se karta dokáže dosáhnout v neherních výpočtech. V 3D renderingu používajícím GPU (Blender, V-Ray), byly časy vykreslování proti RTX 2080 méně než pololoviční. Toto ale asi samozřejmě také nemusí platit pro všechny aplikace (SPECviewperf mělo o dost nižší nárůst výkonu).

Článek pokračuje na další straně.

Předchozí
Následující

261 KOMENTÁŘE

  1. Myslím že většina z nás se shodneme na tom (až na jednoho nejmenovaného který je teď na pokraji zhroucení :-D), že se nová architektura Nvidii povedla a ten nárust výkonu tam je dost slušný a taky jsem zvědavý na DLSS jak se to s ním bude vyvíjet protože už teď ve 4K předvádí dost slušný nárust výkonu navíc. Jsem zvědav co předvede AMD a před Vánoci by to mohlo být zajímavé, kéž by se jí povedlo něco podobného jako s řadou HD4000, ale zatím jsem docela skeptický 😉

    • Povedl se jim určitě produkt (protože tady ještě ta spotřeba není tak daleko od Vega 64, RTX 3090 bude ještě o kus dál). Ale nejsem si jistý, jestli se dá říct, že se povedla úplně architektura. Přijde mi, že Turing byl větší pokrok/změna, a to přesto, že byl na skoro stejném procesu (16nm a 12nm je v rámci stejné 16nm generace, jen dílčí zlepšení). Kdyby Nvidia napálila spotřebu tenkrát, tak je možná o dost zajímavější.
      Kdežto teď Ampere by měl být schopný dát o dost lepší výsledek aniž by se spotřeba zvýšila proti Turingu, protože je to generační rozdíl v procesu (vylepšená 16nm versus vylepšený 10nm proces). Taková generační změna by měla mít potenciál k vysokému zvýšení výkonu bez růstu spotřeby – jako má Polaris nebo Pascal. A místo toho Ampere musí půlku nebo většinu svého zvýšení výkonu udělat spotřebou…
      Je možné, že je to vina procesu, který je horší, než Nvidia čekala a nepřináší jí moc velké zlepšení efektivity, ale může to být i tou architekturou.

      Ono bych to možná řekl takhle – architektura Turingu byla velký pokrok, ale produkty byly oceněné tak, že poměr cena/výkon při vydání nebyl nic moc pokrok. Takže produkt, samotné karty, vypadal ne zas tak atraktivně (když člověk nepřistoupil na to ,že se platí extra ne za výkon, ale za RTX).
      Tady u Ampere to vypadá přesně opačně. Přijde mi, že to architektonicky proti Turingu ani není tak zajímavé (asi až na to 2xFP32, ale zase se nezdá, že by to byla taková revoluce v herním výkonu, jenom v OpenCL/Cuda). Jenže poměr cena/výkon u RTX 3080 je nastavený velmi dobře a za RTX už se navíc neplatí, takže karta samotná vypadá atraktivně velmi.
      Trošku paradox, no, ale pochopitelný.

  2. já bych to tak černě neviděl … spotřeba vyšší, cena o třetinu nižší (vs 2080ti) .. ta kdyby dorovnala výkon, buď se roztaví, nebo bude spotřeba ještě mnohem vyšší, než má teď 3080 …
    AMD půjde se spotřebou pravděpodobně taky hodně vysoko … řekl bych malinko pod tuto kartu ..

    • Hlavně je to skvělý upgrade pro ty kteří stále používají Pascaly, pro majitele GTX1080 a GTX1080Ti je RTX 3080 upgrade na 2x-3-5x vyšší výkon a to se bavíme jen o rasterizaci, s RT a DLSS je člověk i na 10x vyšším výkonu, přesně slovy Jensena „My Pascal friends, it is safe time to upgrade“

        • Jojo, doma v jednom „tom posledním“ PC se mi ještě krčí maxwellí GTX950 (Asus Strix). To byla fajnová kartička, tichá, prd žrala, ještě i teď se na ní dalo obstojně hrát v fhd (samo starší tituly). V rámci rotace na její místo přijde 1060 3GB a strixku si asi schovám do archivu 😉

        • Pořizovat si po 3+ letech GK, která má menší VRAM pro mne není přijatelné. Takže pokud nahradím stávající ASUS Strix 1080Ti OC nečím od NVIDIA asi to bude RTX2080@20GB, nebo RTX 3090. Ve hrách možná 10GB bude stačit i zítra, ale v řadě GPGPU úloh to bylo omezující již včera.

      • „pro majitele GTX1080 a GTX1080Ti je RTX 3080 upgrade na 2x-3-5x vyšší výkon a to se bavíme jen o rasterizaci“

        Koukl jsem se na ten ComputerBase a proti GTX 1080 FE (která tehdy nebyla OC model a měla horší chladič) je nárůst 2,5× a proti GTX 1080 Ti je to jenom 1,87×. To je ve 4K a ten test myslím měl pro AMpere relativně nejlepší výsledky z TPU a THW, takže se nedá říct, že „červený we“b, myslím.

      • komplík, to počítání ti moc nejde. To neznamená, že není čas na upgrade, ale s těmi nárůsty to střílíš „od boku“ a děláš ze sebe nedůveryhodného (DýDý ale z opačného spektra). Tak ať tu pak z tebe nemají srandu jako z něj.

      • komplik 18.9.2020 at 7:27
        „pro majitele GTX1080 a GTX1080Ti je RTX 3080 upgrade na 2x-3-5x vyšší výkon a to se bavíme jen o rasterizaci“
        Dobre fandovstvi, kdyz ty grafy ukazuji ani ne dvojnasobny narust, pri zvyseni spotreby.
        Jinak ja jsem jeden z tech, co prave stale nevidi smysl upgrade, protoze GTX 1080 Ti je v 1440p porad dostatecne dobra (RTX 3080 ma v tomto rozliseni narust vykonu jeste nizsi) a ve 4k to stale neni dostatecna hitparada (cileno na 144Hz monitory), s DLSS budiz. No a pak je tu ta spotreba, ktere spouse lidem nevadi, ja uz se s 300+W GPU nesmirim. Ale tohle jsou me osobni preference, podle kterych se rozhoduji, nevydavam to za obecnou pravdu, jak tvrdite vy o majitelech Pascalu.

        • Já tvrdil že nárust výkonu je cca 2-3.5 násobný proti Pascalu, samo jsou tituly kde to hlavně pro 1080Ti nebude tolik. Taky nevím proč zmiňuješ nějakou spotřebu, když jsem o spotřebě nepsal.

          Pokud GTX1080 brala 180W a 3080 má dvojnásobný výkon minimálně a má spotřebu 320W, tak je to pořád méně než 360W co by byl dvojnásob 1080.

          Tady máš recenzi, kde záměrně testuje 1080 vs 3080 s i7-7700k!
          https://www.youtube.com/watch?v=VQmife767u0

          RDR2 4k:
          25.1 pro 1080
          32.4 pro 1080Ti
          70.6 pro 3080

          2.81x pro 1080
          2.18x pro 1080Ti

          COD:MW
          35.7FPS pro 1080
          59.0FPS pro 1080Ti
          96.4FPS pro 3080

          2.70x pro 1080
          1.63x pro 1080Ti

          R6:Siege, 1440p
          85.7 pro 1080
          124.2 pro 1080Ti
          229.4 pro 3080

          2.67x pro 1080
          1.84x pro 1080Ti

          MSFS, 1440p:
          16.1 pro 1080
          22.7 pro 1080Ti
          42.4 pro 3080

          2.63x pro 1080
          1.87x pro 1080Ti

          https://www.youtube.com/watch?v=csSmiaR3RVE

          vezmu jen 14 games average 1440p
          80 FPS 1080
          108 FPS 1080Ti
          171 FPS 3080

          2.13x u 1080
          1.58x u 1080Ti

          14 games average 4k:
          44 FPS 1080
          64 FPS 1080Ti
          108 FPS 3080

          2.45x pro 1080
          1.69 pro 1080Ti

          Tady https://www.youtube.com/watch?v=AuGoel96Ym4 ne všechny hry testuje na max detailech, takže se ty čísla docela liší a je tu několik testů kde 3080 má víc jak dvojnásobek výkonu 1080Ti, například COD:MW v 2160p, v Horizon Zero Down je to dokonce 2.51x víc – 35 vs 88 FPS v 2160p, Death Stranding bez DLSS v podstatě taky 2x víc než 1080Ti. V RDR2 2.75x víc v 2160p. Proti 1080 by tady byly snadno víc jak trojnásobky.

          U RT a DLSS pak ani nemý smysl o použití 1080 uvažovat, nárust byl násobný už u Turingu, to pak znásobuje kombinace s DLSS. A to zas znásobuje Ampere…

    • Tohle mne znepokojuje „cena o třetinu nižší (vs 2080ti) „. Jestli je tomu tak co vede Nvidii k tomu aby šla s cenou dolů? Já mám rád nízké ceny. Jenomže Nvidia potřebuje vydělávat.

      To si myslí, že AMD je bude ohrožovat novými grafikami?
      Co když má pravdu Stach, že skuteční cena díky karet nedostatku na trhu bude vysoká?
      ?

      Nechme se překvapit. Brzy to uvidíme.

      • to budeš asi jediný, koho ta cena znepokojuje .. já chápu, že sen konkurence byl, aby ty ceny byly alespoň o 50% vyšší než u předchozí řady a Jensen všechny zklamal (podle nejmenovaného klamal) … realita je takováto … kdyby měli čipy od TSMC, dočkal by ses těch vyšších cen …

        • Protože nerozumím proč by měli být chipy od TSMC dražší (tedy že by právě výroba u TSMC zdvihla o třetinu cenu grafiky) tak si myslím, že si nebudu jediný „znepokojený“.

          Třeba mi to vysvětlíte.

            • Nic jiného než výmluvy jsem od Vás ani nečekal.

              Víte ona to je nebetyčná pitomost, že by jiný výrobce chipu srovnatelným chipem takto ovlivnil cenu grafické karty. Kdyby tomu tak opravdu bylo tak by totiž výrobce tak drahého chipu už dávno zkrachoval.

            • ach jo, když ty takhle 😀 já se nevymlouvám, ale z toho, co tady vypisuješ řadu dní, se dá lehce vydedukovat, že ta zášť o které jsem psal, je u tebe prostě realitou. Nepsal jsem o nenávisti a nevím čem, to sis zase vydedukoval ty … je to tvoje realita, nemůžeš jinak … kdyby byla ta karta drahá, řval bys, jaký je Huang zloděj, když předražená není, zase se ti to nezdá … 2080 ti byl mnohem větší čip a karta byla od začátku předražená … to není můj výmysl, je to prostě tak … nemel tady nesmysly o jiném výrobci a mysli … já neřekl, že je jiný výrobce o třetinu dražší, jen že je dražší a to taky není můj výmysl … další věc jsou výrobní kapacity … u Samsungu třeba nvidia dostala slevu, je to možné z mnoha důvodů … samozřejmě to není jen o tom … 3090 má stejný čip(velikostí samozřejmě, ne konfigurací) a je jednou tak drahá … opět … předražená, jako byla 2080ti …

            • ještě k těm tvým s prominutím blábolům o ceně čipu … bavíme se o 7nm+, vylepšeném tsmc procesu vs 8nm vylepšeném 10nm samsung procesu … i když podle ceny waferů se zdá být cena relativně stejná, záleží pak na výtěžnosti, od které se odvíjí cena čipu …

            • Prosím přestaňte to okecávat a převádět na osobní rovinu. Máte nějaké důkazy že výroba od Samsungu je tak výhodná že zlevňuje tuhle kartu o třetinu?

            • teď jsem se docela nasral … budu se držet zpátky … nerozumíš slovu „PŘEDRAŽENÁ“? Pak ale nerozumíš asi ničemu …
              Aznohh ti psal o konzolích, že při jejich cenách a výkonu, když bude nvidia zbytečně nadsazovat cenu, odejde spousta hráčů ke konzolím … ty začneš plácat o rovnicích a meleš něco úplně od věci … jedno s druhým, cena je jaká je a že ji trefili dobře, se vidí a uvidí v obchodech
              dle tebe by asi bylo v pořádku, když 1060 stála 8k, 2060 11k, 3060 by měla mít cenu 15k a 4060 třeba 20k?

            • Slovo předražená nevysvětluje ten třetinový rozdíl o kterém píšete. Evidentně nemáte žádná čísla jenom pocit. To je ale žalostně málo. Máte vůbec nějakou představu kolik stojí ty čipy?

            • nevím kolik stojí ty čipy, ty to víš? Nauč se číst a porozumět souvislostem … víc nemá smysl ztrácet s tebou čas … není to jen o ceně čipu … jak jinak to mám napsat? Jedno s druhým …

            • Když neznáte ceny chipů pak slovy „kdyby měli čipy od TSMC, dočkal by ses těch vyšších cen …(myšleno o třetinu vyšších)“ jenom šíříte svoje pocity na míle vzdálené pravdě.

            • ty neznáš ceny čipů a to, co si „myslel“ pod tou vyšší cenou od jiného výrobce, na to nemohu reagovat jinak, než tě nazvat velkým „myslitelem“ 😀 vidíš, tohle je tvůj problém, ty píšeš „myšleno“, myslíš tím, ty sis myslel … hovno tě zajímá, jak to myslel oponent … raději nemysli

            • DedekHrib
              Řekl bych, že cena je o třetinu nižší z toho důvodu, že přímo nahrazuje RTX2080, která stála stejné peníze. V minulé generaci jsme se dočkali skokového nárůstu cen. To se samozřejmě nelíbí nikomu.
              Čili – zdražení proběhlo již minulou generaci. Teď přišel na řadu řádný nárůst výkonu.

            • gogo1963 18.9.2020 at 12:50

              Proste fabulujete logicky neobhajitelné. To Vás šetřím. Přesto máte potřebu tady ty výmysly obhajovat. Normální člověk by uznal chybu ale vy vyrážíte do útoku. Don Quijote de la Mancha je proti Vám břídil ale hlavně na rozdíl od Vás bojoval na straně pravdy.

            • casperdeluxe 18.9.2020 at 13:26

              Možná máte pravdu. Proti tomu cenovému snížení ale mluví koupě ARMu.

              Jenom čas nám ukáže jak to bude.

            • Hřibe – Stachu, vyříkali jsme si to u tebe na webu, pak ještě na Facebooku, pokud máš pro mě něco navíc, klidně piš … pokud nerozumíš psanému, jsi buď nevzdělaný, nebo dement … kde že fabuluji? Ani nevíš, co to slovo znamená … kdybys měl tušení, nepoužiješ ho … házíš tady slovíčky, kterým sám nerozumíš doufaje, že tě někdo bude žrát … ne jednou jsem ti napsal, že děláš ze sebe vola … možná jsem se mýlil a ty nic ze sebe neděláš … nevím, co je pro tebe horší … ty splácáváš dohromady takové konstrukce, že se rozum zastavuje … na jedné straně vykládáš, že fuze nvidia arm je ještě ve hvězdách, na druhé straně očekáváš, že nvidia nové karty osolí tak, že si je koupí jen naprostý debil jen proto, aby nvidii zaplatil akvizice … a tak je to u tebe s každým „novým nápadem“ … nech si poradit někým, kdo nepřednáší na „dd“, pak snad přestaneš psát takové bludy … povykládej nám tady, co že je podle tebe logické na tom, když nvidia navalí na nové karty ceny o třetinu vyšší a prodá jich setinu, když může při své obvyklé marži udělat cenu přívětivou a prodat karet násobně víc? Kdo bude chtít zbytečně připlácet, koupí 3090 … jinak má skoro každý mimo majitelů 2080ti důvod na upgrade …

              v podstatě jsem napsal to samé, co Casper … já jsem DOn, s ním souhlasíš … kromě těch blábolů o ARM …

            • Nechte si ty výlevy. Nechápu kde v sobě berete tuhle potřebu do všeho tak vztekle kousat.
              Stach nejsem ale mám pocit, že Stach je stejný neotesanec jak Vy. Nechápu co Vás vede k takovým konstrukcím. Jenom se tady deklasujete tohle další fabulací. To Vám ale nevymluvím. Zklidněte se už prosím.

            • DedekHrib
              Já právě nevidím cenové snížení.
              V generaci 2xxx došlo k cenovému zvýšení. Nyní to je cenová stagnace (aspoň u 3070 a 3080). Ceny jsou stejné jako u minulé generace. Takto to chápu já.
              A přeci to tak vždycky bylo (až na pár drobných odchylek a samozřejmě minulou generaci) Následnovník předchozí generace měl vyšší výkon za stejnou cenu…

            • Stachu, já jsem klidný na rozdíl od tebe … hraji si tady s kocourem, koukám na tour a divím se sám sobě, že ztrácím čas s hlupákem na tvém levelu … promiň, musel jsem, aby bylo jasněji … chvíli jsem ty tvoje žblebty toleroval, snažil jsem se nebýt nepříjemný, ale podej hlupákovi prst…

            • gogo1963 18.9.2020 at 14:29

              Jenom si říkám kolik jste při své Stachofobii už takto nazval lidí tímto jménem. Ten té Vaší klidné povaze asi musel hejbnout žlučí.

            • jako obvykle, jsi opět vedle … u tebe je to už pravidlem … nepamatuji, že bych takhle někoho nazval, dneska jsem po létech psal o jeho webu v souvislosti s mým telefonem … že mi na googlu vyskakují články právě z „DD“, že to nechápu … ten imbecil je mi úplně ukradený a byls to ty, kdo tady vyblil jeho jméno v souvislosti s cenami nových geforce … na tebe jsem ho hodil proto, že tvoje chování někdy navlas kopíruje to jeho … reklama na pravdu … já nejsem neomylný a kdykoliv to přiznám … od tebe se podobná věc čekat nedá …

            • casperdeluxe 18.9.2020 at 14:28
              Víte primárně věřím diskutérům jenom když se mi to nezdá tak to začnu prověřovat. Vycházel jsem z gogo1963 18.9.2020 at 6:50. No jestli to je na míle vzdáleno pravdě Tak to beru zpět omlouvám se.

            • z čeho že jsi vycházel? 😀 To jen potvrzuje, že nerozumíš psanému … já jen napsal, že je spotřeba vyšší, cena o třetinu nižší, zapoměl jsem ještě výkon o 30% vyšší než 2080ti … nic víc, nic méně, nepsal jsem že tu kartu nahrazuje, jen že i přes tu spotřebu je mnohem výhodnější, než „ti“ … ty tvoje dedukce …

            • Ztráta času 😉 Ale je pravda, že DDědekBedla seká i stejné hrubice jako mistr blogískář. 😉

            • gogo1963 18.9.2020 at 15:17
              Tomu se říká vylévat dítě s vaničkou. Víte já na DD chodím a rád si to přečtu protože když z toho odstraníte adoraci AMD tak tam jsou zajímavé myšlenky. Stach má ego že by možná zastínilo i to ego Jen-Hsun Huanga. Nesnese jiný názor a proto mne z diskusí odstranil. Nemám potřebu být součástí tak pochlebovačského diskusního fóra. Po svém tvrzení, že AMD bude muset jít cestou zvyšovaní výpočtového výkonu stejně jako Nvidia Stach toto prohlásil za blbost mne za kacíře a od té doby jsem tam exkomunikován. Přiznávám, že mi to jejich fórum opravdu nechybí.

            • DedekHrib
              Já jen píšu, jak to chápu já s těma cenama.
              gogo to napsal v souvstažnosti k 2080Ti, jakožto nejvýkonnější kartě minulé generace. Nepřišlo mi na tom něco divného. Šlo asi jen o to, že i když je spotřeba vyšší, tak za ni dostaneme slušnou porci výkonu a za cenu stejné karty minulé generace.

            • gogo1963 18.9.2020 at 15:32
              Ale rozumím. že “ já jen napsal, že je spotřeba vyšší, cena o třetinu nižší, zapoměl jsem ještě výkon o 30% vyšší než 2080ti …“ a o tom píšu že jdou takto s cenou dolů a navíc prodávají i vyšší výkon. A proto tvrdím že to je AMDčkem tedy konkurencí na trhu. To jsou prosté tržní mechanismy.

            • nejdou s ničím dolů, cena je cca na úrovni 2080 kterou nahrazuje … o AMD se neví ještě vůbec nic, ani jestli karty vůbec vyjdou (nazdsázka) a už vůbec nic o výkonu, cenách …

            • gogo1963 18.9.2020 at 19:41
              Tak si vyberte
              tady tvrdíte, že jsou s cenou dolů gogo1963 18.9.2020 at 6:50
              a tady to poíráte gogo1963 18.9.2020 at 19:41

              Vás rodiče neučili, že lhát se nemá?

            • casperdeluxe 18.9.2020 at 22:02

              Tak to je mezi Vámi a gogo1963 18.9.2020 at 6:50 rozdíl. Zkuste si to vyjasnit. Upožor0nuji Vás, že se ale gogo bude do krve hádat, že to není pravda a nikdy tohle nenapsal “ … spotřeba vyšší, cena o třetinu nižší (vs 2080ti) ..“

            • hřibe, přečti si co jsem napsal pár postů nad tvým posledním … číst neumíš, plácat hlouposti umíš do aleluja … a taky to, co jsem napsal předtím nijak nekoliduje s tím, co jsem napsal potom, nebo co na psal Casper … tvoje ubohost rýpat a dělat ze sebe debila za každou cenu, nezná hranic … klidně v tom pokračuj … místo aby ses začal omlouvat za ty ptákoviny, co jsi psal na mojí adresu, opět tvoje pseudoego nepustí a jedeš dál ve svých kolejích … klidně se u toho poser, lžeš, jak když tiskne …

            • k tom u méme tvrzení … napsal jsem jasně, bylo to jen srovnání (pro Hřiba) že 3080 má vyšší spotřebu, vyšší výkon a o třetinu nižší cenu, žež top karta předchodí generace 2080ti … to, co meleš kolem toho už druhý den, je naprosto irelevantní … nikde jsem nenapsal, že 3080 je náhrada za 2080ti … že to tím svým pidimozečkem nemůžeš pobrat, s tím já už nic nenadělám … a ty bláboly o lži … podívej se do zrcadla a mluv …

            • DedekHrib
              Nechápu co řešíte. Gogo to napsal jasnš. Cena o třetinu nižší než 2080Ti. Ale nástupce není 3080. RTX3080 je nástupcem RTX2080. Takže tam je cena stejná. Takže Nvidia nešla s cenou dolů. Cena je pořád stejná, ale výkon šel nahoru. Už je to srozumitelné?

            • casperdeluxe 19.9.2020 at 12:32

              Ano máte pravdu. Ale to přece nic nemění na faktu, že cena je o třetinu nižší. Také to nemá vliv na to co jsem psal a na co reaguji.

              Gogo nastavil téma cena proti 2080Ti. Proč sem nyní pletete další kartu. Proč máme měnit téma v konci diskuse?

            • gogo1963 19.9.2020 at 8:26 a co jste těmi urážkami chtěl vyjádřit netuším. Doufám, že se Vám alespoň ulevilo.

            • gogo1963 19.9.2020 at 10:02
              Neměňte téma v průběhu diskuse. Je to podpásovka. Stále je tu to vaše srovnání s cenou k 2080Ti na co reaguji a o čem se celou dobu bavíme.

            • ničím jsem tě neurazil, pablbe, já můžu srovnávat škodovku s Ferrari, můžu srovnávat cokoliv s čímkoliv … ty se tady pasuješ na všeznalého, přitom ti unikají základní věci, nedokážeš rozlišit vůbec nic … jak se dá s takovým retardem diskutovat? Opakuji po několikáté, nikdy a nikde jsem nenapsal, že ta nová karta nahrazuje tu srovnávanou, jen jsem chtěl naznačit tobě podobným debilům, že se určitě vyplatí pořídit si ji … pořád nic? Pak tedy nic … už si o mě neotírej tu svoji slizkou tlamu, prosím.

      • „DedekHrib 18.9.2020 at 9:09
        Tohle mne znepokojuje „cena o třetinu nižší (vs 2080ti) „. Jestli je tomu tak co vede Nvidii k tomu aby šla s cenou dolů?“

        To co tu tvrdím celou dobu… nové konzole. Podívej se, co nabízí PS5 za 10790,- Podívej se na novinku PS+ Collections, pro koho je asi tak určena, koho má přivábit k přechodu na PS. V ceně PS+ (něco přes litr za rok) máš kolekci špičkových her včetně exkluzivit God of War, Bloodborne, Uncharted 4, Last of Us Remastered, Fallout 4, Final Fantasy XV, Fallout 4, Detroit: Become Human atd..

        Jensen není blbej, ví, že pokud ztratí část zákazníků, kteří přejdou na konzoli, ty bude už jen velmi těžko získávat zpět na PC. Každopádně ten kdo z toho těží jsme my zákazníci, protože se nám tuto zimu dostane velký výkonnostní posun na všech platformách za velmi dobré ceny.

        • Konzole? Protože různé předplatné na hry jsou i na počítačích tak Vám napíšu tohle.

          PS5 = AMD Zen2 + RNDA2

          Takže to jsme u toho co jsem už psal tedy konkurence od AMD. Nic nového jste mi tím neřekl. Navíc tahle rovnice tak trochu popírá to Vaše tvrzení „Jensen není blbej,“. To že nedodávají chipy do PS5 je doklad toho, že to moudře nevedou. Tuhle prohru si také u Nvidie bolestně uvědomují a rádi by udělali v budoucnu tuhle rovnici.

          PS6 = ARM + RTX

          Držme jim palce.

          • „DedekHrib 18.9.2020 at 11:41
            Tuhle prohru si také u Nvidie bolestně uvědomují “

            😀 😀 😀
            Wow tak ty jsi taky dobrej fanatik… zřejmě kvalitní očkování od DDemagoga. 😀 Příště až půjdeš s Jensenem na pívo, tak mu poraď jak to má dělat, chudák je z toho asi celej nešťastnej. 😀

            Já ani nikde netvrdím, že na PC neexistuje předplatné (cenově dost jinde), já jen uvádím, že PS+ Collection je novinka pro tuto generaci, která má nalákat na AAA klasiky z PS4 lidi, kteří předtím Playstation neměli. Je to něco navíc a grátis ke stávajícímu PS+, které samotné ti přináší každý měsíc nějaké hry zdarma.

            Já ti vysvětluju proč je cena jaká ja a ty tu začneš cosi blábolit o AMD. 😀
            PS5 není čístá RDNA2, ale něco mezi RDNA a RDNA2, takže nějaká tvoje rovnice je úplnej blábol, stejně jako většina tvých ostatních příspěvků.. 🙂

            • Cena je nízká protože AMD dalo nižší ceny. Pochopte, že vůbec nezáleží je-li ta technologie zabalená v krabici se značnou Sony nebo někoho jiného.

              No snad si nemyslíte, že Nvidia má radost z toho že nedodává grafiky do PS5? To že z toho v Nvidia toho nemají radost je holý fakt který vidí a chápe každý i fanda Nvidie. Kvůli tomu mne srovnávat se Stachem to si opravdu nezasloužím.

              To jste opravdu tak nerozumný a myslíte si, že mám radost z toho jak AMD dělá všechny konzole. Tohle mi náramně smrdí tím, že by tady mohl vyrůst nový monopol. Uvědomte si prosím, že takto AMD vyšachováná konkurenci i přes vývojáře. Bude tak díky jejich technologiím snadné portovat hry mezi PC a konzolemi. A z toho může být veliký problém.

            • 😀 😀 Tak ty máš dost. Jako vtip na pátek dobrý, sice trochu delší, ale pobavilo.

            • Milý Hřibe, a víte, že MS konzole používají DirectX 12 Ultimate a Sony má vlastní API, o kterém se zase tolik neví, jen že bude možná více ždímat hw konzolí. O jakých technologiích AMD usnadňujících portování her mezi konzolemi a PC to vlastně mluvíte?

            • Api je jenom most a tento most vede ke stejným HW funkcím na grafické kartě od stejného výrobce. Ten konec (prováděný kód.) je pak v obou případech velni podobný ne li stejný a v tom je to usnadnění.

              Vzpomeňte jak demonstrovali Epicové nový Unreal engine. Bylo to na PS5. To něco už napovídá. https://www.youtube.com/watch?v=qC5KtatMcUw

            • „DedekHrib 18.9.2020 at 12:34
              Cena je nízká protože AMD dalo nižší ceny.“

              DDědku kua ty jsi machr, nejen že s Jensenem u píva řešíte jak je NV bez konzolí v prdeli, ale s Lisou na kávičce probíráš, zřejmě jako hlavní poradce AMD, cenové podmínky. 😀 Ty jseš vlastně takovej dvojitej agent Hříb.

            • DedekHrib 18.9.2020 at 13:02
              „Vtipy to nejsou ale to asi nepochopíte nebo nechcete chápat.“

              Tak tohle radeji ani nerikejte, zlvaste po tom, co jste tu psal API, konzolich, cenach Nvidia cipu a „smutku“ Nvidia nad nemoznosti mit GPU v PS5 a XSX.
              Ale musim se priznat, ze me to take rozesmalo a udelalo mi to lepsi den 🙂

            • DedekHrib: API je jenom most, který vede k HW funkcím grafických karet osazených čipy různých výrobců, přičemž se lze max. bavit o tom, zda čip danou funkci podporuje či ne a s jakou efektivitou. DirectX 12 je furt jen jedno, nebo existuje nějaký AMD edition či Nvidia edition?
              Co se týče dema Unreal 5 enginu, tady vám běží na rtx kartě – https://www.youtube.com/watch?v=_MdcTYq23Ag&t=163s, tak nevím, co jste tím chtěl demonstrovat.

            • Aznohh 18.9.2020 at 15:32
              To jsou normální zákony tržního prostředí.

            • „DedekHrib 18.9.2020 at 12:34
              Cena je nízká protože AMD dalo nižší ceny.“
              Aha, takže vysvětli tu větu a dodej zdroje ze kterých čerpáš. AMD dalo nižší ceny komu a proč? Jistě mi to vysvětlíš…

            • Alich 18.9.2020 at 16:35

              Když lidé něco neznají a nebo nechápou tak se toho buďto bojí nebo se tomu smějí. Vy jste ten druhý případ. Rozumný člověk začne argumentovat,

            • hřibe, argumentovat na totální hlouposti lze jediným způsobem, resp. dvěma, ignorací, nebo posláním tě někam … co očekáváš, hňupe?

            • DedekHrib 19.9.2020 at 8:26
              Nekdy proste clovek S NEKYM na argumentovani nema cas, nebo naladu. Vcera jsem byl docela z prace unaveny a ty vase s odpustenim zvasty me pobavily, tak jsem to sem napsal. Argumentovat jsem nemel chut. Navic tech prispevku, kde se vam asi 5 lidi snazilo neco vysvetlit je tady spousta.
              Ono kdybyste mene mluvil a vice poslouchal (cetl), mozna byste se dobral poznani a treba jeste ziskal respekt u ostatnich. Takhle jste tu akorat za troubu, co tvrdi, ze „CPU je vlastne GPU“, „expert“ na ekonomiku a marketing a jeste dalsich par krasnych perel.
              Myslete si o mne, co chcete, vase obecna prohlaseni a soudy jsou mi celkem volne.

            • DědoBedlo ty jsi mimoń, dáváš tu nějaké obecné nesmyslné plky, se zmatenou argumentací jak od nesvéprávného člověka. Kde komu AMD dalo nižší cenu jsi nám tedy nevysvětlil, ok. Ztráta času.

            • gogo1963 19.9.2020 at 8:28
              Hloupost a co je tam hloupé? To nejste schopen vysvětlit.

            • Alich 19.9.2020 at 9:10 Tak
              Tomu se říká demagogie co jste mi předvedl. Proste není pravda že jsem napsal že jsem napsal „„CPU je vlastne GPU““ snažil jsme se gogovi jenom vysvětlit, že je logické použít chiplety u GPU když u CPU se už používají proto oboje jsou podobné tedy jsou processor unit.
              Když jste unavený a nemáte ochotu něčemu porozumět tak jste opravdu neměl do diskuse zapojovat.

            • Aznohh 19.9.2020 at 11:48
              To jste docela dobrý ignorant když tržní zákony jsou pro vás Ztráta času. Víte, že na této „Ztrátě času“ se velmi dobře vydělat?

            • mikymauz 18.9.2020 at 16:56
              To je pro mne novinka, že může běžet na RTX. Ale demo je udělané na PS5 tedy na AMD technologiích běží tam bez jakékoliv potřeby cosi upravovat a je plně optimalizované. odpadá i problém s optimalizací na AMD PC technologie.
              To mlže být do budoucna problém pro technologie Nvidia protože se vývojáři budou primárně zaměřovat na AMD technologie a Nvidia bude v jejich vleku.

          • „Moudře nevedou“. Malinko bych si dovolil nesouhlasit, s ohledem na hospodářské výsledky. V desktopu prodají 3x víc karet než AMD a daří se jim diverzifikovat portfolio směrem k lukrativnějším segmentům. Jestli si bolestně uvědomují nebo jestli to berou jako prohru, to fakt netuším. Na jednu stranu je fakt, že i když objemově je těch APU pro konzole hodně, pak podle všeho to velká sláva nebude. A na druhou stranu buďme rádi, že to AMD nějaký příjem generuje, bez toho by se jim v grafické divizi asi dýchalo hůře (potřebujem konkurenci, ne?).
            Jinak to o tom, jaká to je katastrofa, že Nvidia nemá nic v konzolích, jak se bude vše optimalizovat na AMD, protože konzole, o tom čtu už asi deset let.
            V čem můžu souhlasit, že klidně může být nějaká nextgen konzole, nějaký SuperShield od Nvidie na bázi armu a jejich gpu. Ale vsadil bych se, že si to Nvidia nechá pod palcem, potřebný background umí, vč. herní streamovací služby.

            • Ano s tím co píšete souhlasím. Z pohledu hospodářských výsledů máte pravdu. Víte on ani Intel to nevede moudře výrobu vývoj high end procesorů ale ceny akcií stoupají.

              Ano dělají třikrát více karet. Ale AMD má i procesory a hlavně zkušenosti s chiplety která jestli Nvidia nepřipraví něco podobného by ji mohli hodně zamotat hlavu.

              Tohle co píšu jsou i pocity které se mohou a nebo nemusí potvrdit. To že AMD má silný růstový potenciál dokazuje i vývoj jejich akcií.

            • amd má zkušenosti s chiplety v cpu … u grafik to tak jednoduché není … akcie do toho nemotej

            • gogo1963 18.9.2020 at 13:39
              Já vím že toho po Vás budu chtít moc ale zkuste si uvědomit dvě věci.
              1. Ano to je pravda ale CPU a GPU jsou velice podobné a proto to má logiku mluvit o chipletech i u GPU.
              2. Kurz akcií je nejhmotnějším vyjádřením skupiny lidí že dané společnosti věří. Proto to sem logicky patří.

            • já vím, že od tebe chci nemožné, ale cpu a gpu si nejsou podobné ani náhodou … zkus si o tom něco najít, víc se ti už věnovat nebudu, nemá to žádný smysl … jeden blábol za druhým ještě větším … logicky by ses měl nechat vyšetřit … mít tohle doma, nechám se utratit …

            • já jen napsal, že u GPU to tak jednoduché není … propojit 8 jader, resp. 5 a víc tisíc asi nebude jen tak … proč se asi zrušilo sli, cf? Protože to nefungovalo jak by mělo … věřím, že se to jednou povede, ale pokud si myslíš, že to, co má AMD nemá i nvidie, pak jsi k té nechytrosti ještě i naivní …

            • Když to nebudete na tom fóru vyvracet pak tímto beru Vaše tvrzení o CPU a GPU že „nejsou podobné ani náhodou“ jako zcela mimo mísu. GPU a CPU jsou podobná zařízení a minimálně z pohledu použití chipletů.

              Vzdal jsem že byste mi napsal nějaký podstatný rozdíl mezi CPOU a GPU

            • Hrib – Máte pravdu, CPU i GPU jsou si velmi podobné. Jsou to takové placaté čtverečky…
              Velmi zhruba řečeno, zatímco cpu provádí co nejlépe nějakou náhodnou sadu instrukcí na základě nějakého množství úkolů na relativně malém množství dat, tak gpu provádí menší počet konkrétně stanovených instrukcí na velkém množství dat. Ano, má logiku mluvit o čipletech i u gpu, ale představa, že prostě naplácám vedle sebe gpu čipy a pospojuju je nějak podobně jako u cpu, je slušně řečeno velice lichá.

            • už jen proto, že cpu čiplet má nějakých 8 jader, gpu „čiplet“ 5 tisíc a víc … ne že by to možná nešlo, dneska by to ale cenově mohlo vyjít dráž, něž megamonolit …

            • mikymauz 18.9.2020 at 17:24 Hm to je zajímavé tyhle články mi unikly. Rád jsme si je projel. Tak trochu mne to uklidnilo protože vidím, že Nvidia na tomto polí něco dělá a doufám, že i nyní dělá. AMD potřebuje mít chipletovou konkurenci jako sůl.

              Je potřeba si uvědomit, že tahle situace je ale jiná. Tehdy Nvidia dělala něco co nebylo ověřeno a mohlo to působit utopicky. Nyní AMD najelo chiplety a je to prošlapaná cesta.

            • mikymauz 18.9.2020 at 17:55 ano zní to směšně ale je tomu tak z pohledu chápání funkcí . Neshodnu se s Vámi v tom, že „že prostě naplácám vedle sebe gpu čipy a pospojuju je nějak podobně jako u cpu, je slušně řečeno velice lichá.“ je to Vás názor na která máte samozřejmě právo ale právě z pohledu GPU je přibližně CPU si myslím, že nemáte pravdu.

              Největším nepřítelem těchto zařízení je elektřina co se v nich mění v teplo. Doposud se eliminovalo její množství zmenšováním. Nyní jsme se dostali na hranice a nejde to. Proto AMD začalo pracovat izolací tepelných zářičů tím, že budou dále od sebe (když je ty nové výrobní procesy ta k sobě nahustily) a vydalo chiplety. Jak jste mi dodal ty odkazy i Nvidia to rozjela ale si to ještě nemají ve stavu aby to spustili. Logicky neexistuje důvod proč by to nemohli rozdělit i u GPU když na CPU to funguje.

              Nedržte se tak při zemi a popusťte uzdu fantazii.

            • gogo1963 18.9.2020 at 19:44
              Aha a proto udělalo AMD chiplety na CPU protože to je dražší. Zkuste prosím nejdříve přemýšlet než něco napíšete.

            • opět reakce a opět nebetyčná hloupost … nene, tohle opravdu nemá cenu … přečti si několikrát, co jsem napsal a pak zalez někam, kde ten tvůj smrad nebude nikomu vadit …

            • hřibe … cpu má 2 až 64 nebo něco víc jader, propojit je není takový problém, počítají sériově … gpu má5 a víc tisíc jader, počítá paralelně, dva čiplety vedle sebe, to je 5×5 tisíc jader, 25 milionů cest … pokud je propojíš několika málo cestami, bude z toho v podstatě SLI, resp. CF, které nepřináší skoro nic … zkus myslet, génie …

            • gogo1963 19.9.2020 at 8:36
              Kdyz budete pokracovat jeste dal, tak se dozvime asi jeste hodne modra od Hriba. Ted treba svoje nesmysly rozsiril o duvod vzniku cipletu. Je to docela napinave, o jake modro nas obohati priste 😀
              Ale jinak asi spis ztrata casu, rekl bych. Venku je krasne..

            • gogo1963 19.9.2020 at 8:29
              Jenom hledáte hnídy na tom co jsem napsal. Když se Vám to nedaří tak jenom osočujete bez jediného vysvětlení. Stačí mi jediná slušná věta.

            • gogo1963 19.9.2020 at 8:36
              Ujasněte si rozdíl mezi SLI a chiplety (z pohledu PCB). To mícháte hrušky a jablka dohromady. dejte si do gůglu GPU a chiplety. Oni na tom už dávno pracují dokonce i u Nvidie (jak jsem včera zjistil).

            • aaha hahaha tak co jsi zjistil? Zjistil si, že na tom nvidia pracuje už roky a že to jaksi nejde zprovoznit, že pokud se někdy ukáže schůdná cesta, že u toho nvidia určitě bude … tedy nic v dohledu … kde jsou jablka a hrušky, když ty nerozumíš ani tomu, co jsi sám nabídl k nahlédnutí? Přečteš si nadpis a myslíš, že je vymalováno … ono ale není … čiplety u cpu a čiplety u gpu to je naprosto jiná kategorie

            • připoměls mi jeden starý vtip o náboru policajtů
              …zkoušející se ptá adepta „kolik je 5×5?“
              „22“
              „opravdu“?
              „na 100%“
              … nu, počítat sice neumí, ale stojí si za svým, přijat …

  3. „větší rozšíření se dá čekat až pár let po dostupnosti GPU“

    To bzlo u RTX IO. Aktuálně stojí podpora hlavně na podpoře systému, ta by měla přijít příští rok. Určitě to bude tlačit i AMD protože je to dobrá věc.

    Tady ale stojí za zmínku že grafiky už rozšířené jsou RTX IO budou podporovat i RTX grafiky z generace Turing.

      • Netuším o čem mluvíš? Já někde psal něco o zastaralém 3 větrákovém chlazení? Jo ty se bavíš o Radeon VII a to co ukázalo AMD. Já ale u Radeonu VII nezpochybňuju tři ventilátory ale pasivní část chladiče. To co ukázalo AMD je zase jen dvoslotová karta s třemi ventilátory. Je rozdíl mezi 2 slotovým a 2.7-2.8 slotovým chladičem i když budou mít 3 stejné ventilátory.

        Také jsem napsal že na fotce už to nevypadá tak špatně jako na renderech. Ale to je chyba AMD že ukazují něco co nedělá dobrý dojem.

          • určitě může být vše zcela jinak, ale pak proč utrácet peníze na model grafiky ve hře, k tomu vydat kvalitní 3D render který až na omezení kvality ve hře řekněme ukazuje to samé a pak se objeví fotka která se, v některých detailech liší.

            Třeba z té fotky mi přijde že ta karta je o něco větší než 2 slot, ze hry to zase vychází přesně jako 2 sloty a 3D render, z toho se to velice špatně odhaduje, vzhledem k inspiraci u 2000 řady FE, které byly dvouslotové se dá uvažovat že i tyhle budou dvouslotové. A to že ty FE chladiče nebyly zrovna nej, byť nebyly ani tragické víme. U Turingu ale odbourávaly méně tepla než kolik očekávám že budou odbourávat u 6900XT.

            • „komplik 18.9.2020 at 16:42 proč utrácet peníze na model grafiky ve hře,“
              Když pominu, že tu už několik dní zbytečně řešíš Fortnite jak blázen stále dokola… tak opět další z tvých mnoha fabulací… dej zdroj, že za to AMD dalo nějaké peníze. IMHO to byl barter s Epicem, AMD reklama, Epic noví hráči. Demagogie jako vždy.

            • Ano ale kdo, AMD nebo Epic v rámci barteru? Víme to? Nevíme… takže vše jen spekulace.

            • Já to vidím tak, že model té grafiky vzali z CAD/CAE, takže tvůrce mapy měl velmi málo práce. A je taky otázka, odkud co vzali – třeba vrchní, víceméně nepodstatný, plastikový dekl s ventilátory mohl být z Navi2x, kdežto zbytek modelu už je ze staršího modelu. S ohledem na to, že AMD je v poslední době důsledné v utajování, není to až tak nepravděpodobné. Ovšem stejně tak to může být komplet finální RX6900…

              Dál bych velmi polemizoval o tom, že počet slotů určuje, jak efektivní a výkonné to chlazení je. Jako příklad můžou sloužit mé „bývalky“ – R9 280X a RX480, obojí v provedení MSI Gaming X. Obě byly 2-slot a jednoznačně přebíjely všemi svými parametry jiné značky výše uvedených modelů, zejména různé Strixy apod. Navíc je patrné, že samo MSI umí dělat jak vysoce kvalitní 2-sloty, tak chladicí odpad (MSI Mech/Armor).

  4. Takže, v priemere v 4k rozlíšení nejakých 30% nad 2080Ti a masívnych 60% nad 2080 Super. Výkon je prosto excelentný a za tie €€€ je to super karta. Perfektný generačný skok ako sa patrí, dovolím si tvrdiť že pre majiteľov 1080-Ti-RTX2080 karta vhodná na upgraid…

    Chladič je aspoň podľa mňa celkom slušný a nie veľmi hlučný. Jeden veľký mínus je spotreba, 300-350W podľa recenzie je ohromné číslo, áno vzhľadom k výkonu je efektivita oproti RTX2000 lepšia ale to samotné číslo je priveľké na kartu ktorá nebude „vrcholom reťazca“… …to sa potom vynára otázka koľko bude žrať 3090ka – 450W ?

    Každopádne, + nejaký príplatok za nereferenčnú MSI/ASUS/GB verziu a má človek mega kartu len je otázka ako mega to bude až vyjdú silné AMDčka… toť ukáže čas.

    • Výkon je excelentní, ale za cenu brutální radeonizace celé produktové řady (320W u nehi-endu, to je prostě masakr, tohle si nedovolilo ani AMD) a hlavně vůbec nedosahuje slíbených hodnot navýšení výkonu – ukazuje se, že to byly jen pečlivě vybrané a praxi vzdálené extrémy.

      Soudit RTX3000 řadu budu až podle toho, co předvede AMD.

      • jakých slíbených? Kde jsi slyšel že bude dosahovat všude a za každých okolností 2x 2080? Já jsem zvědavý na ty prezentace big navi … jak se trefí a jaký bude revanš za tyhle s prominutím kecy …
        a ano, poslední věta sedí, takže ty soudy předtím … 😀
        (taky by se mi líbil tenhle výkon při třeba 200 wattech, ale …)

        • Oni v podstatě napíšou „up to“ v Controlu 4k RT DLSS to udělá dvojnásobek a mají splněno. Všichni víme, že prezentace samotný firmy jsou marketingově zaměřený a nikdy to není tak růžový. Kdo čekal 2x 2080 napříč všemi testy, tak je naivní. Ryzeny 3000 taky často neboostujou tak, jak by papírově měly, lidi pindali ale stejně je kupujou, protože jsou to dobrý procesory.

          • Presně tak, prezentace vypíchne best case scenario a pokud člověk chce slyšet jen to co se mu hodí, tak se na to upne. Mimochodem v Controlu to 2x nebylo ani v prezentaci, 2x to v prezentaci platilo jen pro V-ray a blender. Nejblíže 2x byl Minecraft.

            • tož nevím, když projdu všechny testované hry na toms hardware, koeficient výkonu 3080 vs 2080 je většinou mezi 1,7-1,8 a nikdy nejde pod 1,55 … pak v grafu průměr ze vech her to je jen 1,38 … někdo neumí počítat, nebo …

            • tak ne, blbě jsem koukal, u 4k je ten průměr 1,67 … to není daleko od „slibovaných“ 1,9

      • Já slíbený výkon vidím, viděl si ty grafy v keynote? Některé recenze dokonce v těch hrách naměřily i o něco více, třeba RTX Quake ani Minecraft neukazuje 2x vyšší výkon v keynote ale hodně recenzentů k 2x vyššímu výkonu dospěla, dokonce dospěli i v hře bez RT k 2x vyššímu výkonu a o blenderu nebo v-ray ani nemluvě, tam je to o pěkná procenta nad 200.

        Výkon je přesně takový jaký byl vidět v keynote, někde i vyšší, spotřeba je taková jaká padla v keynote. V keynote nebylo nic co by se nepotvrdilo, ok 1.9x efektivitu jsem testovat neviděl, pokud víš kde mají změřenou spotřebu 2080S vs 3080 v Controlu s RT+DLSS v UHD při 60FPS, uvítám zdroj, počítám že to skutečně bude ~240 vs ~126W což odpovídá 1.9

        Neviděl jsem tě křičet když Koduri říkal že 2xRX480 za méně jak 500 dolarů překoná 700 dolarovou GTX1080, dyť si patřil k těm kteří to myslím chválili a už pomalu stáli frontu na dvě karty. To že ten výkon platil jen pro demostrovanou hru a nikde jinde to už takového výkonu nedosáhlo jsi určitě neřešil. A 2×480 taky znamenala 320W spotřeby v mainstreamu když 1080 na to stačilo 180W a problém to pro takové jako ty to taky nebyl

        • nepamatuju se, že bych chválil jakoukoli CF/SLI konfiguraci, natož abych na ně stál frontu. 😁

          Efektivita se měří v Controlu (což je btw nv hra)? 😁

          hele promiň, já tyhle hrátky fakt nehraju. V keynote jasně zaznělo 1,9x (kteréžto číslo někteří zelení roztrubovači hypovali bez bázně a hany jako univerzální koeficient) bez jakýchkoli upřesnění – a to prostě nesedí. Byla z toho nějaká očekávání, a ta se prostě nenaplnila. To tu kartu nediskvalifikuje, jen to prostě není taková bomba, jak se čekalo.

          • „Efektivita se měří v Controlu (což je btw nv hra)? 😁“

            Samozřejmě že ano když ti někdo ukáže konkrétní scénář kde dosáhneš takové efektivity a nikde ti netvrdí že v jiném to nemůže být jinak, tak bys měl přeměřit ten konkrétní případ. Nikde nepadlo že 1.9x ale AŽ 1.9x to je podstatný rozdíl, dokonce ten samý graf na kterém stálo to 1.9 jasně ukázal že je to nějakých 1.2 pokud ta karta jede na plný kotel, jen sis tu hodnotu musel dopočítat, nikdo ji ale nezatajil. Když holt neumíš pochopit význam jednoduchého grafu o dvou osách a křivce na ní, tak to není chyba té prezentace ale tvoje.

            A k tomu CF… výtažek z diskuze z ddw:

            Marucs [Zobrazit profil] [Poslat zprávu] 2016-06-01 07:43:25
            To mi chcete říct, že AMD nabídne kartu (2x RX 480) za cca 13 tisíc (tedy 1070 GTX) a budu mít výkon podobný 1080?

            tynyt [Zobrazit profil] [Poslat zprávu] 2016-06-01 17:58:10
            prakticky někdy vyšší, někdy o dost nižší – pokud nepředvedou nějaký zázrak, kterým by stoprocentně zfunkčnili CF na všech herních titulech.

            „někdy vyšší“ to tvé někdy bylo přesně 1 hra. Takže to evidentně nijak nevadilo. Dokonce v té prezentaci neukázali žádný jiný výkonnostní test., jen jednoznačné tvrzení 2×480 > 1080. Když NV udělá něco podobného, kde ti dokonce ukáže srovnání výkonu v několika hrách, které jen slepý nemůže vidět že tam žádná hra nedělá 2x vyšší výkon je tu neskutečný hate.

            Buď trošku konzistentní

          • Ono že těch 1,9× je zavádějících, to se dalo vyčíst hned už z toho grafu podle toho, jak to bylo vytvořené (podtaktujeme Ampere na efektivnější frekvence, aby měl stejný výkon jako Turing, takže se úplně obrátí reálná situace, protože reálně Ampere běhá na neefektivních taktech… jak to asi dopadne, že).

            Ono taky, nesedělo to ani k tomu tvrzení, že RTX 3080 má být 2× rychlejší než RTX 2080, protože už jsme věděli, že TDP je skoro o 50% výš. Už z toho vyplývalo, že nárůst efektivity bude jen 1,33× (a teď když je reálný průměrný výkon nižší než to, to samozřejmě vyjde ještě hůř).

            • Ano přesně tak situace pro ty co hrají s FPS lockem nebo si zapnou Vsync třeba na 4k TV s HDMI2.0 kde stejně víc FPS neprotlačí.

              Když si koupím auto s maximálkou 250km/h ale budu jezdit jen dle pravidel v ČR, tak max rychlost bude 130km/h, ale to neznamená že to auto neumí jet 250km/h. Že to není právě můj use case nic nemění.

              Prostě kdo nebude hrát Control v 4k na zamčených 60FPS holt 1.9x vyšší efektivitu neuvidí, stejně tak kdo nehraje V-Ray nebo Blender asi taky jen tak nebuvidí 2x vyšší výkon.

          • Ten ale pochopil že to neplatí pro všechny use case a zároveň potvrdil že ta karta 2x vyšší výkon v některých use case má, na jiném CZ webu to autor vůbec nezmínil naopak to jednoznačně popřel.

            • Myslím, že tak 95% lidí čekalo 200%, já taky a chtěl jsem 3080 kupovat, ale teď jsem na vážkách. Efektivita taky byla jen marketingové číslo a je mnohem nižší.
              A ceny? Toho se bojím nejvíc, že to neseženu pod 23 v lepší OC edici, což je o 5 tisíc víc, než jsem počítal… a to už není málo

            • Ceny su hruza des, niektore slovenske obchody za asus 3080 pitaju 1150€ a ani skladom ju nemaju že za 21 dni celkom slušne prestrelena cena že vraj 699 dolarov…

            • @wendak nevím jestli 95% lidí čekalo 2x větší výkon v každé hře a kažédm use case, bohužel můžu mluvit za sebe.

              Já v té prezentaci chvíli taky vylít „wow“ 2x? Bomba, ale pak jsem se na ten graf podíval pozorně a bylo jasné že 2x všude to rozhodně nebude, čekal jsem 2x větší výkon v Blenderu a V-Ray, což jde mimo mě, jinak ve hrách dostanu řádově 60-80% nad výkon 2080, v 4k…
              Tohle jsem přesně viděl v recenzích

              Stejně tak s tou efektivitou, prve si říkám, to není možné, tak hodně? pak koukám pozorně a docvakne mi pro jaký scénář to platí a že realita je cca 20% (100FPS při 320W vs 60FPS při 240W)

              Ale to tvrzení 1.9x proti Turingu je pravdivé, protože byl jasně specifikovaný scénář, do kterého si záměrně nevybrali RTX2080 ale RTX2080S, která je v Turing RTX kartách ta nejméně efektivní, nakreslili dvě křivky a vypíchli rozdíl mezi dvěmi body na ose X při stejném bonu na ose Y. To že při max výkonu je tomu jinak na tom grafu také je, jen to nikdo nezdůraznil.

              U reklamy prostě člověk má koukat pozorně, lhát se v tom nesmí a taky se to nedělá, ale je třeba vidět všechny informace, ne jen ty které prezentující vypíchne. Samozřejmě vypíchne to nej.

      • 1. „320W u nehi-endu, to je prostě masakr, tohle si nedovolilo ani AMD“ – osviežim ti pamäť, AMD si dovolila 300W u Vegy 64 čo oproti o triedu výkonnejším 1080Ti/Titan takisto nebol highend.
        Ak 320W u jednoznačne najvýkonnejšej karty na trhu je „prostě masakr“ tak 300W u Vegy 64 bolo čo ? No… s tvojho pohľadu asi nič, veď AMD že ?

        2. „slíbených hodnot navýšení výkonu – ukazuje se, že to byly jen pečlivě vybrané a praxi vzdálené extrémy“ – lebo to sa prvý krát v histórii prezentácií a marketingu stalo že v praxi sú sľubované výkony/nárasty menšie než tie z reklamy a v priemere sa nedosahuje hodnot z jedného správne vybraného testu… neuveriteľné !

        btw. dva mesiace, dva… sa AMDD fanúšici obháňali tým že RTX3080 ani nedorovná 2080Ti ale teraz je +30% nad ňu sklamanie… no, hlavne že už teraz sa dá s istotou PRED-povedať že s nových AMD grafík budú všetci totálne unesený a nadšený.

        btw. a páči sa mi ako keď dôjde na ten bájny marketing nVidie tak skoro všetci – nehovorím že práve aj ty – vykrikujú ako sú oni imúnny a ako by tej hnusnej nVidii veril len hlupák zrazu tak veľmi operujú s jedným, jedným marketingovým tvrdením nvidie a sú strašne sklamaný a zronený 😀

        • 1. Jo jo, proti Vega 64 není těch 320 ještě tak moc. I když si říkám, že kdyby Nvidia tu spotřebu stlačila na stejné číslo (Vega 64 měla TDP 295 W), možná by to za to snížení výkonu stálo. Ale je pravda, že Vega 64 měla „nefér“ výhodu v tom, že ji míň žraly paměti.
          2. No chtělo by to podívat se, jak vzdálené byly ty ukazované „up to čísla“ v minulých generacích a jestli se tem rozdíl proti realitě nezvětšil. Mě trošku přijde, že jo, ale možná se pletu, čas na to studovat starší prezentace jsem si nenašel…

          Ono před těmi zprávami Igora o 320/350 W se nečekalo, že Nvidia zvýší tolik TDP proti Turingům, protože to nebyl její styl, takže by se ti lidi možná tak drsně nepletli (i když tam samozřejmě mohlo být přání otcem myšlenky), kdyby ty karty měly TDP 220 a 250 W a ne 320 a 350. Víc wattů je u GPU vždycky víc výkonu.

            • Teď jsem koukal, ComputerBase měřil Gears Tactics, Doom Eternal, Control, THW a PCper Metro Exodus, Guru3D neuvádí. Všude to vychází těch 300-340, nezdá se, že by se to lišilo podle použitých technologií. GPU má automatické řízení taktů/boost, které by případné snížení spotřeby mělo vykompenzovat. Nižší spotřeba by mohla být, když CPU vyloženě nestíhá u nějaké nenáročné hry a GPU není plně využité.

        • Jenže Vega(64) byla profi karta „náhodou“ uvedená jako herní, a ještě v době největšího finančního temna u AMD . Krom toho, už v době uvedení bylo všem jasné, že výhodnější je Vega56, protože její TDP bylo daleko snesitelnějších 210W a výkonově to o třetinu horší nebylo. Mimo to Vega jako čistě herní karta nedávala moc smysl, pokud jsi ji nedokázal zaměstnat i jinak, než hraním.

            • a já jsem snad nenapsal, že ji uvedli jako herní? Napsal. Jen původ toho čipu byl z profesionálního segmentu (což přinášelo i některé výhody, pokud je uživatel uměl využít), takže se na herní efektivitu moc nemyslelo.

          • „Vega(64) byla profi karta „náhodou“ uvedená jako herní, …že výhodnější je Vega56“ – Tynyt, takéto reči si nechaj na stretnutie „priateľov a fanúšikov AMD“, mne ich vážne nepíš.

            Hore si písal „320W u nehi-endu, to je prostě masakr, tohle si nedovolilo ani AMD“ a ja som ti jednoducho kontorval s Vegou 64 ktorá žrala 300W, ešte raz v xy teyxtoch nájdeš jej hernú spotrebu okolo 300W a bola 25-30% pod 1080Ti teda ani pri tej veľkej spotrebne nebola dokonca highend.

            Vega 64 bola v nereferenciách, bola to normálna hrená grafika s 300W spotrebou a tie tvoje reči na tom nič nezmenia.

            …ale opakujem chápem, 300W u Vegy 64 ktorá bola 30% pod konkurenciou je pre AMD fanúšika pohoda, 320W u RTX3080 ktorá je 2x tak výkonnejšia než 5700XT a 1,8x výkonnejšia než VII je neospravedlniteľné 😀

      • Zajímalo by mě, jestli nereferenční 3090 budou mít stejný chladiče jako 3080. Dávalo by to smysl z hlediska nákladů na výrobu. Otázka jestli je stejný PCB. Ale 3090FE mě přišla mnohem masivnější, než 3080 FE. Pokud je 10% rozdíl ve výkonu chlazenej o tolik větším chladičem, tak by mohly být u 3090 lepší provozní vlastnosti.

        • Podle fotek to vypadalo, že nereferenční chladiče jsou typicky stejné u RTX 3090 i RTX 3080, protože je GPU a PCB stejné. Nějaké speciální modely by asi mohly mít chladič vlastní, který pr RTX 3080 nebude prodávaný.

          Dává to smysl, protože rozdíl příkonu není tak velký, chladí se o pár fází a paměťových čipů víc (ale 12 navíc jich chladí backplate), a na těch + 30 W mají ty chladiče podle recenzí rezervu, akorát se toršku zvýší otáčky nebo teploty.

          Chladič FE je výjimka a je větší, ale taky FE u RTX 3080 nemá tu rezervu co 3xvětrákové nereferenčky.

            • nevím jestli o třetinu, ale jsou o něco větší určitě, hlavně je to poctvivý triple slot, pokud se nepletu, Takže tam bude nějaká porce plochy navíc

            • třetina byla tak „od oka“ … 3090 je o 26mm širší, 3080 má vrtuli mezi 95-100mm … tak řekněme čtvrtina, větší pasiv samozřejmě, 3 plné sloty

  5. Je to spatny, cekam na AMD.
    RTX3080 se nepovedla, respektive se nepovedl system chlazeni, kdy u Founders karet, Asus karet, Gigabyte karet fouka grafika primo pred procesor a narusuje airflow ve skrini a zvysuje teploty procesoru. Je to vazne spatne a je to velke zklamani.

    V podstate jedina custom grafika, ktera je jiz ve vychozim stavu ok, je MSI Gaming Trio, jenze ta zase stoji 24.000 Kc a to proste nemohu akceptovat, je to proste prilis a radeji pockam na AMD az co predstavi oni.

    Velka skoda, protoze vykon grafik vypada super, ale chlazeni teda zvrzali enormne. Ach jo.

    • Samozrejme je tu i moznost dokoupit nejake to AiO a dodelat si to doma, ale nechce se mi do toho vubec, mam malo casu a tohle uz jsem podstoupil kdysi u GTX570 a uz o to moc nestojim. Nakonec treba AMD predvede nejake promakanejsi chlazeni, pockam.

    • jj protože každá jiná karta fouká teplý vzduch někam do neznáma a teplotu cpu nezvyšuje … kecálku, hledal jsi důvod, našel jsi ho 😀 … kdyby nebyl tenhle, určitě by se našel jiný, třeba nekvalitní plasty 😀

    • Cekas na AMD protoze jedna americka edice kterou si stejne nekoupis fouka smerem na procesor misto kolem sebe a rozdil je defakto zadny? Ja myslim, ze uz svoje cekani ani nemusis omlouvat, alespon ne timto nesmyslem a rovnou napis ze jsou pro tebe ted za ty ceny drahy.

      • Primo na procesor fouka Founders od NVidie, dale karty od Asusu a karty od Gigabyte. Palit/Gainward vubec chlazeni nezvladl a karty se prehrivaji a jedina slusna karta je MSI Gaming Trio a ano, za 24.000 Kc je pro me MSI prilis draha.

          • ono tohle uchladit není lehký, musí být vymakaný pasiv … dle testů zatím nejlepší Tuf, uvidíme co strix, ty ale bývají o dost dražší … pokud bych do ní šel, klidně bych jí podvoltoval … nepotřebuji ale tak silnou …

            • jo STRIX bude cca o 2.3k drazsi cekam, nicmene ta Tufka je dobra a pokud si snizi powerlimit na -10 az -15 procent tak je to paradni karta … jedou totiz nadoraz jak drive AMD, takze zadne pretaktovani, spise doporuceno podvoltovani 😀 se tu tise smeju, pac z tohoto si nVidiaci delali srandu driv 😀

            • Copak podvoltovat, to je to nejlehci, ale jak vymyslet to chlazeni, aby to totalne nepodelalo teplotu procesoru? Ono je skvely, ze ma Asus o deset stupnu nizsi teploty na grafice, ale co chudak procesor. :-/

            • Redmarxi, to reseni nicemu nevadi, nebudes mit rozdil mezi klasickym nebo prufukem, mozna bych se i stavil, ze ten prufuk je lepsi, protoze to teplo odvede rychleji pryc, kdezto ty klasicky si to tam hezky nahnaj a teplota v case bude jeste vetsi, sam vidim jak mi klasicky grafiky ohrivaj CPU a toto neni horsi, mozna i lepsi pac ten vzduch uz ma pohyb smerem nahoru a CPU to jen odfoukne smerem dozadu k vyfukovymu vetraku, kdyby ten pohyb nebyl, tak se ti to teplo tam drzi a stejne to pak prijde na CPU ktery to odfoukne. Fakt se nemusis bat, ze by to bylo horsi nez klasika, bude to minimalne stejne spatne ne li lepsi jako jakakoli jina vykona grafika v kejsu

            • no … ono je úúúúplě jedno, jestli ti na cpu fouká 75° z 3080, nebo 80° z rt5700, nebo jakékoliv jiné výkonnější karty …

            • Celkem se mi zamlouvá EVGA FTW 3, ale ta se obvám bude celkem drahá. ASUS je podle mě předraženej. @mittar nějaký testy Tria? Vychází špatně ?

            • ST33L nevychazi spatne, ale ta TUFka vychazi lip jak teplotne tak hlucnosti

            • však mu to píši … 75-78° u takovéto karty … sen všech hráčů …

            • Vy to porad nechapete, grafika je na tom dobre, lepe nez driv, ale zhorsila se teplota procesoru, protoze driv to na ten procesor nefoukalo primo a vetsi cast odesla zebrovanim dole u grafiky. Navic ten vyfuk pred procesorem zhorsuje celkove airflow.

              Proste jedinej, komu to pomohlo, je grafika a to ja neakceptuji.

            • BTW z jedné předchozí debaty s Redmarxem 😀 Aneb historie se opakuje.

              „Aznohh 21.8.2020 at 0:41
              Zrovna ty jsi se tu asi rok prsil, jak koupíš Turing hned jak vyjde a pak když vyšel, tak jsi tu každej den pod článkem brečel, že je drahej a že tě Nvidie zklamala. 😀 Nakonec jsi skončil u bazarovek Pascalu za pár tisíc. 🙂 Tak raději nic nepovídej o grafikách za 35k. „

            • Aznohh jj tak ten je dobry..dneees se podivame zpatky do minulosti na tooo, jak si chtel redmarx koupit novou grafiku 🙂 Je to jednoduché, kdyby mu tolik neslo o penize tak si ji davno koupi, na druhou stranu ho chapu, ja bych za grafiku pres 20tis taky nedal, ale nikomu to tady necpu do diskuzi jak v jeho pripade 🙂

            • Redmarxi, my to chapeme dobre, ano ty grafiky foukaji do prostoru CPU chladice, ale stejne tak klasicky grafiky tim ze rozfukuji teplo kolem sebe tak to teplo prijde k CPU chladici, tady to ale bude rychleji a s proudem vzduchu, tudiz to je snad i lepsi, kazda grafika v kejsu ti ohriva okoli, tady tyto tomu davaji jeste pohyb, takze neni vubec treba se obavat, ze chlazeni CPU na tom bude hur nez kdyz tam das klasiku, bude to stejne nebo lepsi

            • Nevim, jestli nejlepe, ale par grafik od MSI jsem mel a teploty s nizkou hlucnosti jsem si nemohl vynachvalit.

    • Na teplotu CPU to dopad nemělo, mělo to dopad na teplotu paměti, světe div se… pozitivní.

      Nezapomeň že klasické řešení chlazení ten teplý vzduch nijak nevyhání z bedny ale jen ho tam výří, z jedné strany naráží do desky, z druhé do bočnice (předpoklad horizontální umístění, u vertikálního je to kapku jinak, že :))

      3080 a 3090 mají na straně u konektorů blower, takže odvádí teplo mimo skříň a nevýří ho po ní. Zrovna v těhle místech z mé zkušenosti často zůstávají horké kapsy vzduchu protože ho nemá moc co odvádět.

      Na druhé straně to téměř bez restrikce prohání vzduch chladičem, ten vzduch se rozhodně nijak závratně nezahřeje, takže fakticky CPU neovlivní a část toho vzduchu dojde k pamětem a ty, světe div se z toho benefitují.

      Je to asi jako u vodníka a radiátoru v předu. Vzduch se ohřeje o 0.1-0.5 stupně v závislosti na rychlosti a tloušťce radiátoru. To není nic co by mělo změnit účinnost chlazení, jestli je radiátor na intake nebo exhaust je fakticky jedno.

      Navíc mi řekni co je správné airflow. Víš že záleží na skříni a její konstrukci? Víš třeba že některé skříně chladí lépe grafiku než CPU a naopak, nebo přidání dalšího ventilátoru do skříně může znamenat zhoršení teplot komponent protože naruší ideální flow vzduchu? Víš že některé skříně fungují lépe s pozitivním a některé s negativním tlakem? Skříně s negativním tlakem třeba lépe chladí grafickou kartu, která podtlakem nasává vzduch i zezadu přes perforace krytek extension karet? Přidáš ventilátor na intake a ouha, teplota jde nahoru protože vyrovnáš tlak a grafika už si ten vzduch nenasaje tak jak před tím…

      Doporučuji nějaký generátor kouře a foukat to do bedny a sledovat jak ten vzduch ve skříni pracuje.

  6. Všichni nadšený, karty během pár minut vyprodaný a jedinej Tynyt zase hejtuje v diskuzích sebemenší odchylku od jeho představ. Jsi tak moc ubohej, že i kdybys byl třeba o polovinu méně ubožejší, tak seš stále nejubožejší člověk v téhle, a nejenom v této, diskuzi.

      • Mě by stačilo říct průměr
        A nebo aspoň důsledně už všeho psát a říkat „up to“ 2x
        pak by to nebylo zklamání – fakt jsem byl nalomený kartu hned koupit, ale po prvních testech jsem si to rozmyslel. A takových lidí bude asi víc

          • Tak pochopitelne, protoze si potrebuji ospravedlnit, ze nekoupi a snazi se o sve pravde presvedcit vsechny kolem. Naopak ti co koupi, zase budou nakup obhajovat, aby nevypadali jak blbci. Jen male procento z obou skupin je schopno podivat se realite do tvare a rici v obou pripadech opak, pokud to tak skutecne citi.

            • jak opak, jako že „to jsem ale blbec, že jsem to koupil“? 😀
              může ji furt prodat a ještě s nějakým ziskem …

            • gogo1963 19.9.2020 at 13:36
              Tak nejak.
              Treba ja jsem strasne davno kupovalu notebook Asus EEE 701, ten uplne prvni, s vidinou co vse na nem nebudu delat a jak moc mobilne. Problem nebyl ani tak v CPU a RAMce (tu jsem si dokonce i rozsiril), jako v ukrutne malem monitoru a klavesnici a diky tomu jsem to prakticky nepouzival. Ve vysledku jsem na tom odpracoval jen par hodin a pak to za par let prodal za cca 10% puvodni ceny. Vlastne asi nejhorsi koupe elektroniky, co jsem kdy udelal. A presne to jsem si pak rikal – skoda penez, to jsem ale blbec, ze jsem to koupil 😉
              No a pak ten druhy priklad, ktery je z pohledu investice vlastne v poradku – treba Redmarx, ktery stale ceka na neexistujici produkt, se muze v kterykoliv okamzik rozhoupat a proste si rici „to jsem ale trumbera, ze jsem to nekoupil, resi to muj problem“ a koupit to. Tedy pokud produkt bude dostupny 😉
              @Redmarx nic proti vam, neznam vsechna vase kriteria, jen jsem vas vzal za priklad, protoze se mi to tak jevi, ze cekate na neexistujici.

    • Tady to ani není reklamština, tohle je závěrečný slajd prezentace, ano mohlo tam být „up to“ které bylo v předchozích slidech zmíněno a bylo ukázáno že tam 2x výkon je i není. Blbý je když někdo vezme jen ten jeden slide a zapomene na 30 minut povídání a mnoho dalších slidů, tak nezná kontext toho co na tom slidu je. Je normální že při nějaké prezentaci na konec shrneš klíčové vlastnosti toho co si prezentoval. Ten kdo to slyší celé ví že 2x výkon platí v Bledneru a V-Ray a že v žádné hře takové číslo nikdy NV neuvedla – a to se dokonce šidili, protože recenze takový výkon zachytily.

    • Přesně tak, těch zmínek o 2x byla přehršel, dokonce i úplatní trubkaři tyhle fámy hypovali, takže tahle „reklamština“ poměrně rezonovala. A já tohle hypování chápu, protože se tím zakryl brutální nárůst spotřeby.

      A to je taky odpověď komplíkovi, protože po nějaké prezentaci ani pes neštěkne. Běžní zákazníci čtou jen bullety s klíčovými informacemi.

  7. „Podle ComputerBase, techPowerUpu a Tom’s Hardware – uvádíme hodnoty pro všechny v tomto pořadí – vychází RTX 3090 o 60 %/56 %/58,8 % rychlejší než GeForce RTX 2080 Super a o 31%/32%/32,7 % rychlejší než GeForce RTX 2080 Ti (mělo by jít o verze Founders Edition, 2080 Ti je tedy přetaktovaná).“

    Asi bylo myšleno RTX3080… Opravte si to Honzo

  8. Tak jsem si chtel koupit novou grafiku, abych vam to tady nandal, ale bohuzel:

    „GEFORCE RTX 3080 JIŽ OD 18.999,00 KČ
    ZOBRAZIT VŠECHNY MOŽNOSTI NÁKUPU
    Founders Edition 18.999,00 Kč
    Není na skladě“

    Takze nic no, ale co vim, ze vic jak 20K nedam, predrazena smecka vyrobcu karet si necham klidne ujit. Bud NVidia bude FE mit a zakoupim nebo treba tu driv bude Navi 20 RDNA2 a ukaze se, ze je plne konkurencni a levnejsi a pak koupim tu.
    Kazdopadne to vidim tak, ze presto ze 20K na grafiku mam, tak minimalne mesic mozna dva mam cas. Proste pohodicka. A je teda moc pekne, ze nakonec ma AMD necekane sanci porad uspet hned od vydani, staci vydat normalni grafiku, na jejiz napajeni nepotrebuju jadernou elektrarnu a s takovym chlazenim, ktere nebude narusovat airflow PC skrine.

    • Blbý ale bude když AMD nebude mít výkon který očekáváš a ani cenovka nebude odlišná, pak holt budeš čekat další dva roky na další generaci 😀

      A o airlfow skříně si přečti, komentoval jsem ti to podrobně výše. Ta karta teplotám neškodí, naopak jim pomáhá. Můžeš třeba na recenzi LTT, CPU je na tom stejně, ale pamětem to dělá dobře. Ten vzduch v té kartě se moc neohřeje, navíc velkou část toho tepla karta odvede mimo skříň vlastní silou, tudíž v bedně pro systémové fany zůstane méně tepla.

      • Takhle, potreboval bych letos neco koupit. Obava z moji strany je, ze tech grafik nebude dostatek a ze nekoupim proto, ze to nesezenu.
        V opacnem pripade neco koupim, vykon a cena RTX 3080 FE mi vyhovuje, takze pokud AMD nic konkurencniho nenabidne, tak bych bral tuhle grafiku a chlazeni si nejak upravim doma na kolene.
        Pokud si ale vyrobci custom karet zatim chteji rict o 3.000 – 5.000 Kc vic, navic za design karet, ktery se mi nelibi a stejne bych ho musel predelavat, tak si myslim, ze to nezbastim a pokud FE edice nebude realne k sehnani, tak asi budu ochoten tolerovat konkurenci i mensi vykon nez, ktery bych ted ocekaval.

        Takhle to proste je postaveny a budoucnost ukaze, kdo nakonec vyhraje to misto v mem pocitaci. 🙂

          • Tak existuji custom chladice jako Arctic Accelero Xtreme IV pro predchozi generace karet, pocitam, ze bude neco i pro soucasne. Je moznost tam hodit vodni chlazeni, bloky pro graficke karty existuji. Da se vyrobit tunel, at uz pro odvod ohrateho vzduchu z procesoru a nakonec i z grafiky by to mohlo jit take. Daji se i dovnitr skrine napasovat ventilatory, ktere budou usmernovat odvod vzduchu z grafiky.

            Az podle toho, jakou grafiku poridim, tak budu vymyslet, jak to vylepsit. U te Founders me napadlo jako prvni, ze pod SilentiumPC Fera nalepim vodorovne zabranu, ktera bude branit ventilatoru pred chladicem procesoru nasavat primo ohraty vzduch z grafiky.

            Nebo bych si na procesor poridil AIO, cimz bych presunul chlazeni procesoru jinam a pak by mela grafika prostor se chladit bezproblemovy. Akorat to jsou vsechno penize navic, ktere do toho budu muset narvat a se kteryma musim take pocitat.

            • A uvědomujete si, že ta FE edice podle testů naopak prospívá chlazení CPU? A že případné accelero funguje stejně jako nereferenční modely? Vzhledem k tomu, že nechcete dávat za grafiku 20k+, tak možnost vodníka je asi nereálná. Osobně bych to nechal na tom, jak se to bude chovat a pak bych vynášel soudy a dělal nějaké úpravy. Ale dokud to nemáte doma a nevyzkoušíte to, tak prakticky nevíte nic.

            • „Az podle toho, jakou grafiku poridim, tak budu vymyslet, jak to vylepsit.“

              Jinak teda jak pomuze procesoru, ze mu pred ventilator nasavajici studeny vzduch pozenu ohraty vzduch z grafiky? 😀
              Nenechavejme se prosim strhnout PR vyrobcu a pouzivejme vlastni rozum.

              Zatim si bohuzel muzu prohlizet jen obrazky a videa novych RTX 3080, ktere byly zverejnene.

              Za nejlepsi a jedinou na pohled hezkou a efektivni grafiku bych si predem troufl oznacit MSI Gaming Trio, ale jejich 3x8PIN me nechava klidnym a vim, ze tuhle grafiku neporidim.

              MSI Ventus si taky neporidim, at je jakakoli, Ventus je pro me synonymem low-endu a u tak drahe grafiky, chci neco extra a ne nejakou blitku.

              Ostatni vyrobci se prilis nevycajchnovali, nevim proc jsou proti minulym radam grafik tyhle tak osklive, vidim tam od pohledu radu chyb nesmyslnych prekazek proudeni vzduchu, spoustu levneho plastu atd.

              No uvidime, kazdopadne ted uz vim, ze si pockam na konec rijna s cim se vytasi AMD a nekdy potom se teprve budu s grafikou rozhodovat, jakou poridit. Zadny unahleny nakup rozhodne delat nebudu.

            • casper: jak může prospívat CPU, když na něj pere proud horkého vzduchu? To mi prosím vysvětli, ten tvůj zázračný termomechanický děj. 😃

              Redmarx má v tomto ohledu pravdu, teplo vyvedené konvekcí z grafiky bude přímo ohřívat chladič CPU, takže tento ztratí poměrně hodně účinku (delta teploty čipu a chladiče bude menší), takže ventilátor bude muset dodávat větší objem vzduchu. Výsledkem bude to, že jednak nevyhnutelně stoupne teplota CPU a zároveň se zvýší hlučnost. Ale ono to je ve své podstatě jedno, těch >300W tepla z grafiky skončí z valné většiny ve skříni, takže počítače s „Ampérem“ budou hlučné tak jako tak.

    • Titan sa predáva 2500-3000 EUR, RTX 3090 od 1500 EUR….pre toho, kto využije viac výkonu a 24GB VRAM je to naopak skvelý obchod….akurát to chce zložit červený prapor, ako hovorí tombo objektívne fakta….

      • Bude zajímavé kam nacení NVIDIA RTX 3080@20GB (pokud ji tedy vydá). Mohla by přinést zajímavější framebuffer, provozní podmínky a snad i cenu než RTX 3090. A vždycky by měla jít dokoupit druhá (pro náročné multi-GPGPU).

        • Zmysel vydávať RTX 3080 20GB sa potvrdí/vyvráti už o pár dní, keď bude k dispozícii hromada testov výkonu 3090/3080…zatiaľ to ale nevypadá na úzke hrdlo 10GB verzie….
          teda v hrách, uvidí sa….

  9. Pro mne je nová generace zatím zklamáním. Po bombastickém oznámení šedá realita. Zvyšovat výkon karet jen na úkor spotřeby není umění. Energetická efektivita se posunula jen nepatrně.

    Reputaci může napravit 3060 a 3070, které na daný výkon (třeba) nebudou tak žravé…

    Jediné pozitivum (zatím) vidím v ceně. Nvidia dokázala správně stanovit cenu… Je možné, že s novými tituly se nový výkon karet ještě zvedne (platí pro hry). Pro práci je nárůst výkonu větší již teď…