Dnes vyšla GeForce RTX 3080, ale pokud jste perfekcionisté, možná ještě počkejte. Nvidia vydá ještě verzi s 20 GB paměti, asi jako odpověď na nové Radeony. 10GB verze by poté mohla vypadat jako trošku kompromisní.
Od dnešního dne si můžete koupit GeForce RTX 3080, tedy první model nové generace GPU s architekturou Ampere. Ale abyste to neměli tak lehké, Nvidia nyní prakticky potvrdila, že asi během relativně krátké doby vydá také verzi této karty s 20GB pamětí.
Kapacita byla přitom jednou z kritizovaných věcí, protože předchozí GeForce RTX 2080 Ti i GTX 1080 Ti už v generaci Pascal přinášely 11 GB. Tudíž je teď trošku dilema, zda počkat na 20GB kartu, nebo zda je to zbytečné a 10GB jí bude v průběhu její životnosti stačit.
GeForce RTX 3080 20 GB prakticky potvrzena
Nvidia nemá ve zvyku říkat cokoliv o grafikách, které teprve plánuje a ještě je neoznámila, takže v oficiální komunikaci o 20GB GeForce RTX 3080 dosud nic nebylo. Ale hodně spolehlivý web VideoCardz trvá na tom, že karta je v roadmapách a není problém dostat o ní potvrzení od několika různých zdrojů.
Nvidia údajně jenom ještě nesdělila datum, kdy tato karta půjde na trh, což má údajně být proto, že se s ní čeká až na příchod konkurenčních grafik AMD Radeon RX 6000, na něž bude reagovat. Ty mají být odhalené 28. října, takže okolo tohoto data se asi rozjedou i zelená soukolí a RTX 3080 20 GB bude vynesena jako reakce.
Teď ovšem zdá se plán na tuto kartu přiznala i samotná firma. Ve whitepaperu, který vydala ke grafikám Ampere, je totiž jedna zvláštnost. Nvidia v něm uvádí GeForce RTX 2080 Ti, GeForce RTX 3090, GeForce RTX 3070 – všechny takto, bez dalšího určení velikosti paměti. A mezi nimi je model 3080 jako jediný uvedený s názvem „GeForce RTX 10 GB“, najednou tedy včetně kapacity paměti.
Specifikace ve whitepaperu Nvidie uvádějí 10GB paměť jako součást označení modelu GeForce RTX 3080 (Zdroj: Nvidia)
Nelze samozřejmě vyloučit alternativní vysvětlení typu nepozornost/chyba, ale je zde vysokoprocentní (asi o hodně víc než nadpoloviční) pravděpodobnost, že 10 GB je zmíněných proto, že v budoucnu bude 20GB verze, od níž bude kartu třeba rozlišit.
PCB grafiky GeForce RTX 3080 Founders Edition s GPU Ampere GA102. 20GB verze asi bude mít čipy s pamětí i z druhé strany (Zdroj: Nvidia)
Podle VideoCardz by se 20GB verze měla asi vynořit během několika týdnů (okolo dvou měsíců). Možná už v listopadu nebo prosinci tedy bude na výběr mezi verzí s 10 a s 20 GB paměti. Ta druhá bude přirozeně dražší (mohla by například stát 799 $/€, 21 800 Kč), takže to není tak, že když teď pořídíte 10GB model, budete si pak rvát vlasy a cítit se podvedeni.
Někomu možná vám v případě, že na cenu až tak nehledí, bude chybějící „budoucnovzornost“ chybět. Pokud k tomu máte sklony nebo obecně pochybnosti kolem dostatečnosti 10GB paměti, budete už holt muset těch pár měsíců počkat a nekupovat hned teď.
Jaký máte názor na kapacitu paměti u grafiky Nvidia GeForce RTX 3080?
16GB RTX 3070 bude jiný model. Buď Ti nebo Super
Mimochodem: bylo zmíněno, že u RTX 3070 není paměť napsána, což na první pohled implikuje, že zde dvě varianty paměti nebudou. Podle VideoCardz je to však ještě trošku složitější. 16GB karta má prý od čipu GA104 skutečně vyjít, nebo aspoň o ní kolují informace. Ale v tomto případě bude mít i odlišnou konfiguraci GPU (GA104-400 místo GA104-300), takže se pravděpodobně bude jmenovat třeba RTX 3070 Ti. Možná by to mohla být plnotučná verze čipu GA104 s 6144 shadery, ale zatím je to nepotvrzeno.
A tím pádem už Nvidia nebude muset rozlišovat kapacitu paměti v názvu. Kdežto u RTX 2080 má tím pádem asi jak 10GB, tak 20GB verze po stránce GPU vše stejné, pročež je u nich kapacita jediným rozlišovadlem.
Současné a chystané grafické karty Nvidia GeForce RTX 3000 (Zdroj: VideoCardz)
Existence 16GB (levnější) GeForce RTX 3070 Ti vrhá trošku zvláštní světlo na 10GB kartu RTX 3080, ovšem je pravděpodobné, že vyšší hrubý a výpočetní výkon čipu GA102-300 z 10GB karty udělá lepší volbu. Celkově se ale vkrádá otázka, proč Nvidia nejdřív uvádí verze s nižší kapacitou, když pak bude na AMD po 2–3 měsících reagovat a stejně vydá ty s kapacitou vyšší.
Ovšem je také možné, že to má Nvidia dobře propočítané a karty s nižšími kapacitami (8/10 GB) zůstanou trvale tím výhodnějším „sweetspotem“ a nečeká je osud předčasně zastaralých GPU.
Galerie: Představení grafik Nvidia GeForce RTX 3090, RTX 3080, RTX 3070 a architektury GPU Ampere
Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 01Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 02Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 03Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 04Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 05Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 06Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 07Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 08Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 09Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 10Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 11Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 12Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 13Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 14Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 15Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 16Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 17Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 18Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 19Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 20Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 21Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 22Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 23Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 24Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 25Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 26Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 27Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 28Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 29Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 30Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 31Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 32Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 33Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 34Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 35Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 36Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 37Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 38Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 39Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 40Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 41Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 42Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 43Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 44Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 45Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 46Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 47Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 48Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 49Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 50Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 51Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 52Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 53Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 54Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 55Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 56Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 57Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 58Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 59Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 60Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 61Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 62Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 63Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 64Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 65Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 66Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 67Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 68Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 69Zdroj: Nvidia
Odhalení grafik Nvidia GeForce RTX 3090 RTX 3080 a RTX 3070 s architekturou Ampere 70Zdroj: Nvidia
GPU Nvidia AmpereZdroj: Nvidia
PCB karty Nvidia GeForce RTX 3080 a RTX 3090 Founders Edition 1Zdroj: Chiphell via VideoCardz
PCB karty Nvidia GeForce RTX 3080 a RTX 3090 Founders Edition 2Zdroj: Chiphell via VideoCardz
Můstek NVLink SLI pro karty AmpereZdroj: Nvidia
Nvidia GeForce RTX 3070 01Zdroj: Nvidia
Nvidia GeForce RTX 3070 02Zdroj: Nvidia
Nvidia GeForce RTX 3070 03Zdroj: Nvidia
Nvidia GeForce RTX 3070 04Zdroj: Nvidia
Nvidia GeForce RTX 3070 05Zdroj: Nvidia
Nvidia GeForce RTX 3070 06Zdroj: techPowerUp
Nvidia GeForce RTX 3080 01Zdroj: Nvidia
Nvidia GeForce RTX 3080 02Zdroj: Nvidia
Nvidia GeForce RTX 3080 03Zdroj: Nvidia
Nvidia GeForce RTX 3080 04Zdroj: Nvidia
Nvidia GeForce RTX 3080 05Zdroj: Nvidia
Nvidia GeForce RTX 3080 06Zdroj: techPowerUp
Nvidia GeForce RTX 3090 01Zdroj: Nvidia
Nvidia GeForce RTX 3090 02Zdroj: Nvidia
Nvidia GeForce RTX 3090 03Zdroj: Nvidia
Nvidia GeForce RTX 3090 04Zdroj: Nvidia
Nvidia GeForce RTX 3090 05Zdroj: Nvidia
Nvidia GeForce RTX 3090 06Zdroj: techPowerUp
Nvidia GeForce RTX 3090 PCB a chladič Founders EditionZdroj: Nvidia
Naviac pri rovnakom výkone ale dvoch cenách/kapacitách si proste každý vyberie čo chce…
jeden kľudne 10GB verziu lebo za 2 roky napr. ju bude aj tak meniť
druhý zase 20GB verziu lebo ju chce na 3-4 roky.
A novy Ryzen nezvazujete? Protoze pokud byste presel na 4k, jak jste jinde zminoval, tak tam se rozdily mezi CPU mazou. A jestli pak neni lepsi vrazit usetrene penize do monitoru / SSD (vetsihou / rychlejsiho), potazmo RAM, popr. nejake pro-gaming veci jako volant apod. (nevim co hrajete).
já nějaké jednotky procent ve výkonu neřeším, takže nekupuji Intel kvůli tomu … mám slabé chvilky, kdy uvažuji o Ryzenu 😀 uvidím, jak dopadnou recenze, pokud nebude nějaký pro mě zásadní problém (vyšší teploty, nedoladěné biosy), asi vezmu nějaké 10-12 jádro a na 5 let mám s procesorem klid … co se týče peněz, nepřeháním s utrácením, ale z desek mám nejraději „strix e“, nebo nějakou „hero“, „ranger“ řadu pokud to není přes 10k … hraji jen lotro a swtor posledních 12 let a dalších několik let hrát budu, jsou to staré hry, starý engin, staré problémy … 4k asi vynechám, zůstanu u 1440p, potřebuji spousty jader kvůli multiboxingu, grafárnu na dva – tři monitory, aby byla hlavně tichá, to samé procesor … na zen 3 jsem opravdu zvědavý 😀
OK, takto mi to dava smysl. Ja jsem teda nesledoval utilizaci CPU u SWTOR a LOTRO, ale hadam, ze jako MMO budou hodne vyuzivat CPU. Akorat problem u tech starsich je, ze konci treba na 4 jadrech a vic uz nedokazou vyuzit. Tim chci rici, ze tady se projevi spis zvedani frekvence CPU, nez pridavani jader a nova GPU, ale to asi vite sam.
Ja hraji GW2 (to jede jeste na DX9 :D) a grafarna se pri tom ani neobtezuje rotocit vetraky, polovicka CPU take „spi“. Vyvojari v te hre nejake upravy delali, ale take pridavali spoustu noveho, takze ve vysledku mela tehdejsi i7 3770K cca stejne FPS jako muj dnesni 2700X. Kde byl ale pokles vykonu videt, kdyz jsem te i7 zatezoval jadra jeste dalsimi ulohami, coz u 4 jadra nebyl problem, u 8 jadra uz je (pokud clovek hraje a nedela nic moc jineho).
lotro myslím vytěžuje jen dvě jádra, když ale spustím víc klientů (multibox) (u swtor nefunguje), vytěží víc … hra běží na dx11, problém je v raidech, nebo v PvP kde ve 12 a víc lidech padá fps z běžných 300 (když jsi sám někde na mapě) klidně na 5 nebo i méně, stane se, že stojíš na místě, klikáš na skilly a nic se neděje … proto někdy 2060s nestíhá (nebo procesor) … musím se do toho víc zavrtat 😀 … lotro rozběháš na starém notebooku, ale v partě si nezahraješ …
gogo1963 17.9.2020 at 19:40
To, co popisujete, je prave bottleneck CPU, zvlaste u starych engine a DX. Na druhe strane vypocty v MMO jsou hodne zavisle na CPU, proto vam ta 2060s v techto pripadech nepomuze. Protoze jestli ve scene kouzli 1 postava, nebo 20, nezatizi grafiku, ktera to musi vykreslovat, tak moc, jako CPU, ktere se stara nejen o ruzne vypocty vlivem tech skillu a prostredi, ale hlavne o komunikaci a synchronizaci se serverem.
Mineři vykoupí 10GB verze a 20GB verze zbydou pro hráče. 😉
BTW MSI GeForce RTX 3080 Gaming X Trio dle recenzí krásná karta, na ten výkon špičkové provozní vlastnosti.. když si člověk vezme, že nad tímhle bude ještě 3090, tak to bude teprve masakr. Jen ta spotřeba jako dvě 1080 v SLI…
Ono zalezi i na algoritmu, resp. „tezebnim“ nastroji. Tusim Grin to byl, ktery mel dve varianty, kde ta druhe potrebovala neco lehce pres 10GB pameti a fungovala prakticky jen na 1080 Ti a Titanu. Ale asi bych s vami souhlasil, ze pokud opet propukne kryplotezba, tak cilem to budou zrejme ty 10GB modely.
Osobně se mi designově výrazně více líbí Ventus, ale vzhled je subjektivní věc. U Tria nějak nechápu 3x8pin, když výchozí TDP je 340W a maximální 350W. Leda že by dané PCB chtěly využít i např. u potenciální Lightning karty, kde by byl v uzavřených kruzích dostupný i XOC bios bez power limitů (tam by se 3 8piny rozhodně hodily).
A jako proč to tam nedat? Nevím teda jak neznačkové zdroje, ale můj 750W Corsair má 4x 8pin a řekl bych, že na tom bude stejně 90% zdrojů téhle kategorie.
Naprosta vetsina zdroju vcetne vetsiny Corsairu maji pouze 2x 8 PIN. Treti bude treba vzit pres redukci z MOLEXu.
Bud mas uplne novy zdroj nebo nejake Platinum, takze si pogratuluj, ze patris k asi tak 4% mensine majitelu zdroje plniciho pozadavky MSI Gaming Trio na 3x 8PIN.
Blbost. Schválně jsem si dal filtr na CZC a naprostá většina 750W zdrojů má 4x 8pin a to včetně těch levných za 1300,-. 750W je doporučený zdroj přímo Nvidií pro 3080 a vzhledem k tomu, že tohle MSI samotný může žrát přes 400W, tak asi nic slabšího nemá smysl. Navíc předpokládám, že někdo kdo kupuje kartu za 25k má i na slušný zdroj.
Když jsem si kupoval 850W zdroj, tak jsem si říkal, že je to sice hrozný „overkill“, ale alespoň bude potichu.
Po upgradu na nějakou OC verzi 3080 to spolu s 8700K @4.9GHz už nebude „overkill“, ale tak akorát… 😀
Nápodobně.. mě teda NV celkem vypekla, páč mám malou ITX skříňku a teď se jen klepu, jestli vůbec vyjde nějaká karta, která se mi tam vleze. Takovýhle nárůst spotřeby jsem nečekal.
ventus je jedna z nejhůř chlazených variant, nejslabší pasivy .. nevím jak to bude teď
Ty 20GB a 16GB verze dostupne v rijnu a listopadu (jestli to tak bude) asi moc procent na trhu AMD neprida. Mam takovy pocit, ze Kozenak chce na Vanoce nejen novou kozenou bundu, ale k tomu obrat AMD i o kalhoty.
Vsechno se to bude odvijet od toho, jak zajimave AMD grafiky naceni. Ja mam nekolik kamosu, kteri nechapou, proc chci jit do RTX 3080 a cekaji vyhradne na AMD grafiky, protoze udajne pry budou skvele a levne.
Takze bud muze mit AMD hodne velky uspech nebo to taky muze byt konecna, ted to zalezi jen na nich!
To je mozne a ja bych take pockal az na dobu, kdy budou dostupne – a verim, ze spatne nebudou, ale Nvidia uz je ted pripravena – 3060 – 3090 s variantami Ti a Super. Verim, ze i 3050 by pro ne nebyl problem. Navic je tu stale rada 20×0. Jen rikam, ze kozeny pekelnik uz par tydnu zatapi a kazdy den priklada vic a vic, zatimco AMD “hraje” Fortnite (s nadsazkou).
Pořád si myslím, že RTX3080 20GB bude mít smysl hlavně pro profi využití, kde byla vždycky dračka o Titany s dvojnásobnou VRAM, ale pro hraní to nepřinese kýžený benefit v příštích několika letech (určitě ne ve 1440p, ve 4K už je to spornější).
Zaprvé si pořád většina lidí neuvědomuje, že to co ukazují SW jako GPU-Z není v mnoha případech skutečně spotřebované množství VRAM, ale tzv. „assigned memory“, kterou si herní engine „rezervuje“, ale běžným nástrojem už nezjistíte, kolik z toho reálně pak hra potřebuje. Vícekrát to rozebírali a vysvětlovali třeba na GamersNexus. Na zjištění reálné spotřeby VRAM potřebujete speciální nástroje, které to dokážou zjistit na úrovni enginu hry. Např. třeba některé hry od Ubisoftu jsou známé tím, že si takle zaberou téměř celou VRAM, ikdyž by potřebovali mnohem méně.
Zadruhé zvýšená propustnost G6X u RTX2080 o něco snižuje reálnou potřebu VRAM oproti G6, nemluvě o G5X u zmíněné 1080Ti.
A za třetí nové konzole – jak Xbox X tak PS5 – mají z těch 16GB G6 vyhrazených cca těch 10GB jako VRAM a všichni dobře víme, že 3A hry jsou primárně optimalizované na konzole a pro PC se akorát udělá možnost o něco větších/menších detailů a vypnutí/zapnutí nějakých efektů. Sice za 3-4 roky tu můžou být vylepšené verze konzolí s 24/32GB paměti, ale minimálně do té doby nikdo nebude vyvíjet hry, které by 10GB rychlé VRAM nějak podstatně omezovalo ani ve 4K.
A většina lidí, kteří kupují grafiky této třídy, stejně upgraduje alespoň každou druhou generaci, tzn. každé 4 roky cca.
Pro hraní ve 4K přesto chápu, že bude na zvážení jestli přeci jen nejít do té 20GB verze, kdo máte ale herní 4K/120Hz monitor, tak vzhledem k jejich cenám a nárokům her už asi stejně půjdete spíš po RTX3090. 😀
Já na 1440p/144Hz hraní to vidím na jarní upgrade na RTX 3080 10GB. O 20GB verzi bych uvažoval možná kdyby byla opravdu jen o těch $100 dražší, jak zmiňujete, ale pokud vím Nvidia kupuje i G6 za nějakých $10/1GB, G6X může být dražší, takže bych to viděl spíš na +$150 minimálně, kdoví jestli ne $200, a to už mi za to určitě stát nebude.
A zakaznik si muze vybrat ze siroke palety konfiguraci. Tohle a Ticka, parada. Od low po max high end.
Solidni nabidka a jeste se rozsiri.
Co ukaze amd?
akorát o tom píši jinde … jsem zvědavý na cenu … 100 dolarů navíc by cenu zabít nemuselo …
Naviac pri rovnakom výkone ale dvoch cenách/kapacitách si proste každý vyberie čo chce…
jeden kľudne 10GB verziu lebo za 2 roky napr. ju bude aj tak meniť
druhý zase 20GB verziu lebo ju chce na 3-4 roky.
…a ešte niekde medzi to pribudne 16GB AMDčko 😀
úrodný rok letos 😀 mám radost … akorát jsem chtěl koncem roku stavět comp, jenže „kometa“ mi nevoní … nevím, jestli čekat a na co?
A novy Ryzen nezvazujete? Protoze pokud byste presel na 4k, jak jste jinde zminoval, tak tam se rozdily mezi CPU mazou. A jestli pak neni lepsi vrazit usetrene penize do monitoru / SSD (vetsihou / rychlejsiho), potazmo RAM, popr. nejake pro-gaming veci jako volant apod. (nevim co hrajete).
já nějaké jednotky procent ve výkonu neřeším, takže nekupuji Intel kvůli tomu … mám slabé chvilky, kdy uvažuji o Ryzenu 😀 uvidím, jak dopadnou recenze, pokud nebude nějaký pro mě zásadní problém (vyšší teploty, nedoladěné biosy), asi vezmu nějaké 10-12 jádro a na 5 let mám s procesorem klid … co se týče peněz, nepřeháním s utrácením, ale z desek mám nejraději „strix e“, nebo nějakou „hero“, „ranger“ řadu pokud to není přes 10k … hraji jen lotro a swtor posledních 12 let a dalších několik let hrát budu, jsou to staré hry, starý engin, staré problémy … 4k asi vynechám, zůstanu u 1440p, potřebuji spousty jader kvůli multiboxingu, grafárnu na dva – tři monitory, aby byla hlavně tichá, to samé procesor … na zen 3 jsem opravdu zvědavý 😀
OK, takto mi to dava smysl. Ja jsem teda nesledoval utilizaci CPU u SWTOR a LOTRO, ale hadam, ze jako MMO budou hodne vyuzivat CPU. Akorat problem u tech starsich je, ze konci treba na 4 jadrech a vic uz nedokazou vyuzit. Tim chci rici, ze tady se projevi spis zvedani frekvence CPU, nez pridavani jader a nova GPU, ale to asi vite sam.
Ja hraji GW2 (to jede jeste na DX9 :D) a grafarna se pri tom ani neobtezuje rotocit vetraky, polovicka CPU take „spi“. Vyvojari v te hre nejake upravy delali, ale take pridavali spoustu noveho, takze ve vysledku mela tehdejsi i7 3770K cca stejne FPS jako muj dnesni 2700X. Kde byl ale pokles vykonu videt, kdyz jsem te i7 zatezoval jadra jeste dalsimi ulohami, coz u 4 jadra nebyl problem, u 8 jadra uz je (pokud clovek hraje a nedela nic moc jineho).
lotro myslím vytěžuje jen dvě jádra, když ale spustím víc klientů (multibox) (u swtor nefunguje), vytěží víc … hra běží na dx11, problém je v raidech, nebo v PvP kde ve 12 a víc lidech padá fps z běžných 300 (když jsi sám někde na mapě) klidně na 5 nebo i méně, stane se, že stojíš na místě, klikáš na skilly a nic se neděje … proto někdy 2060s nestíhá (nebo procesor) … musím se do toho víc zavrtat 😀 … lotro rozběháš na starém notebooku, ale v partě si nezahraješ …
gogo1963 17.9.2020 at 19:40
To, co popisujete, je prave bottleneck CPU, zvlaste u starych engine a DX. Na druhe strane vypocty v MMO jsou hodne zavisle na CPU, proto vam ta 2060s v techto pripadech nepomuze. Protoze jestli ve scene kouzli 1 postava, nebo 20, nezatizi grafiku, ktera to musi vykreslovat, tak moc, jako CPU, ktere se stara nejen o ruzne vypocty vlivem tech skillu a prostredi, ale hlavne o komunikaci a synchronizaci se serverem.
Mineři vykoupí 10GB verze a 20GB verze zbydou pro hráče. 😉
BTW MSI GeForce RTX 3080 Gaming X Trio dle recenzí krásná karta, na ten výkon špičkové provozní vlastnosti.. když si člověk vezme, že nad tímhle bude ještě 3090, tak to bude teprve masakr. Jen ta spotřeba jako dvě 1080 v SLI…
Ono zalezi i na algoritmu, resp. „tezebnim“ nastroji. Tusim Grin to byl, ktery mel dve varianty, kde ta druhe potrebovala neco lehce pres 10GB pameti a fungovala prakticky jen na 1080 Ti a Titanu. Ale asi bych s vami souhlasil, ze pokud opet propukne kryplotezba, tak cilem to budou zrejme ty 10GB modely.
Osobně se mi designově výrazně více líbí Ventus, ale vzhled je subjektivní věc. U Tria nějak nechápu 3x8pin, když výchozí TDP je 340W a maximální 350W. Leda že by dané PCB chtěly využít i např. u potenciální Lightning karty, kde by byl v uzavřených kruzích dostupný i XOC bios bez power limitů (tam by se 3 8piny rozhodně hodily).
Ta karta si vezme ve Furmarku 425W, takže je otázka co by to dělalo, když by to někdo takto „mučil“. https://tpucdn.com/review/msi-geforce-rtx-3080-gaming-x-trio/images/power-maximum.png
A jako proč to tam nedat? Nevím teda jak neznačkové zdroje, ale můj 750W Corsair má 4x 8pin a řekl bych, že na tom bude stejně 90% zdrojů téhle kategorie.
Naprosta vetsina zdroju vcetne vetsiny Corsairu maji pouze 2x 8 PIN. Treti bude treba vzit pres redukci z MOLEXu.
Bud mas uplne novy zdroj nebo nejake Platinum, takze si pogratuluj, ze patris k asi tak 4% mensine majitelu zdroje plniciho pozadavky MSI Gaming Trio na 3x 8PIN.
Blbost. Schválně jsem si dal filtr na CZC a naprostá většina 750W zdrojů má 4x 8pin a to včetně těch levných za 1300,-. 750W je doporučený zdroj přímo Nvidií pro 3080 a vzhledem k tomu, že tohle MSI samotný může žrát přes 400W, tak asi nic slabšího nemá smysl. Navíc předpokládám, že někdo kdo kupuje kartu za 25k má i na slušný zdroj.
Když jsem si kupoval 850W zdroj, tak jsem si říkal, že je to sice hrozný „overkill“, ale alespoň bude potichu.
Po upgradu na nějakou OC verzi 3080 to spolu s 8700K @4.9GHz už nebude „overkill“, ale tak akorát… 😀
Nápodobně.. mě teda NV celkem vypekla, páč mám malou ITX skříňku a teď se jen klepu, jestli vůbec vyjde nějaká karta, která se mi tam vleze. Takovýhle nárůst spotřeby jsem nečekal.
ventus je jedna z nejhůř chlazených variant, nejslabší pasivy .. nevím jak to bude teď
Ty 20GB a 16GB verze dostupne v rijnu a listopadu (jestli to tak bude) asi moc procent na trhu AMD neprida. Mam takovy pocit, ze Kozenak chce na Vanoce nejen novou kozenou bundu, ale k tomu obrat AMD i o kalhoty.
njn, ještě začne běhat v kožených kalhotách …
Vsechno se to bude odvijet od toho, jak zajimave AMD grafiky naceni. Ja mam nekolik kamosu, kteri nechapou, proc chci jit do RTX 3080 a cekaji vyhradne na AMD grafiky, protoze udajne pry budou skvele a levne.
Takze bud muze mit AMD hodne velky uspech nebo to taky muze byt konecna, ted to zalezi jen na nich!
To je mozne a ja bych take pockal az na dobu, kdy budou dostupne – a verim, ze spatne nebudou, ale Nvidia uz je ted pripravena – 3060 – 3090 s variantami Ti a Super. Verim, ze i 3050 by pro ne nebyl problem. Navic je tu stale rada 20×0. Jen rikam, ze kozeny pekelnik uz par tydnu zatapi a kazdy den priklada vic a vic, zatimco AMD “hraje” Fortnite (s nadsazkou).
😀
Len aby bola behom 2-3 mesiacov aspon ta 10GB verzia, Na nvidia.de presla dnes jej predajna stranka plynulo z „Dostupne od 17.9.“ do „Out of stock“. 😛
Pořád si myslím, že RTX3080 20GB bude mít smysl hlavně pro profi využití, kde byla vždycky dračka o Titany s dvojnásobnou VRAM, ale pro hraní to nepřinese kýžený benefit v příštích několika letech (určitě ne ve 1440p, ve 4K už je to spornější).
Zaprvé si pořád většina lidí neuvědomuje, že to co ukazují SW jako GPU-Z není v mnoha případech skutečně spotřebované množství VRAM, ale tzv. „assigned memory“, kterou si herní engine „rezervuje“, ale běžným nástrojem už nezjistíte, kolik z toho reálně pak hra potřebuje. Vícekrát to rozebírali a vysvětlovali třeba na GamersNexus. Na zjištění reálné spotřeby VRAM potřebujete speciální nástroje, které to dokážou zjistit na úrovni enginu hry. Např. třeba některé hry od Ubisoftu jsou známé tím, že si takle zaberou téměř celou VRAM, ikdyž by potřebovali mnohem méně.
Zadruhé zvýšená propustnost G6X u RTX2080 o něco snižuje reálnou potřebu VRAM oproti G6, nemluvě o G5X u zmíněné 1080Ti.
A za třetí nové konzole – jak Xbox X tak PS5 – mají z těch 16GB G6 vyhrazených cca těch 10GB jako VRAM a všichni dobře víme, že 3A hry jsou primárně optimalizované na konzole a pro PC se akorát udělá možnost o něco větších/menších detailů a vypnutí/zapnutí nějakých efektů. Sice za 3-4 roky tu můžou být vylepšené verze konzolí s 24/32GB paměti, ale minimálně do té doby nikdo nebude vyvíjet hry, které by 10GB rychlé VRAM nějak podstatně omezovalo ani ve 4K.
A většina lidí, kteří kupují grafiky této třídy, stejně upgraduje alespoň každou druhou generaci, tzn. každé 4 roky cca.
Pro hraní ve 4K přesto chápu, že bude na zvážení jestli přeci jen nejít do té 20GB verze, kdo máte ale herní 4K/120Hz monitor, tak vzhledem k jejich cenám a nárokům her už asi stejně půjdete spíš po RTX3090. 😀
Já na 1440p/144Hz hraní to vidím na jarní upgrade na RTX 3080 10GB. O 20GB verzi bych uvažoval možná kdyby byla opravdu jen o těch $100 dražší, jak zmiňujete, ale pokud vím Nvidia kupuje i G6 za nějakých $10/1GB, G6X může být dražší, takže bych to viděl spíš na +$150 minimálně, kdoví jestli ne $200, a to už mi za to určitě stát nebude.
A zakaznik si muze vybrat ze siroke palety konfiguraci. Tohle a Ticka, parada. Od low po max high end.
Solidni nabidka a jeste se rozsiri.
Co ukaze amd?
Teda, výpočtový výkon RTX 3080 je famózny, co už potom RTX 3090:
https://www.guru3d.com/articles-pages/geforce-rtx-3080-founder-review,30.html
Jako ten výkon je fakt drsný, i některé ty hry s tím DLSS to je mazec 🙂