Objevena další grafika Turing, Nvidia chystá GeForce s 896 shadery. GTX 1150?

86

Na začátku ledna v novém roce by Nvidia měla vydat nebo odhalit grafiku GeForce RTX 2060 představující levnější model nové generace Turing. Kromě toho se ale prý má objevit i nižší řada těchto GPU s modelem GTX 1160 (pokud tedy nepůjde o GTX 1660, 2060 nebo podobné označení). A zdá se, že se už zároveň začíná rýsovat celá řada levnějších menších čipů Turing, které nahradí dnešní GPU Pascal. Objevily se totiž informace o dalším modelu, který by snad mohl skončit jako GeForce GTX 1150 či 2050.

Tento nižší model, nebo jeden z takových nižších modelů, se zřejmě teď objevil v databázi testu Geekbench. Někteří uživatelé, kteří tyto databáze prohledávají, totiž našli neidentifikované GPU Nvidie, které musí být patrně novou ještě nevydanou grafikou GeForce. Jde o GPU, která podle Geekbench nese 14 „Compute Units“, čímž se v kontextu OpenCL myslí v grafikách Nvidia jeden blok SM. A jeden SM má v grafikách Turing 64 shaderů/Stream Procesorů, pokud se něco v architektuře tohoto slabšího GPU nezměnilo (což není pravděpodobné).

14 CU by proto znamenalo, že Nvidia chystá nějakou novou grafiku, která by obsahovala 896 stream procesorů. Jak se bude přesně jmenovat, jasné není kvůli onomu nedetekovanému označení. Ale asi by mohlo jít o kartu na úrovni GeForce GTX 1150 nebo GTX 2050 (pokud bude značení levnějších ne-RTX karet takovéto). Ve světle posledního úniku lze asi čekat, že i tento model by mohl mít architekturu Turing ochuzenou o podporu ray tracingu a možná i o tensor jádra.

896 shaderů ovšem nemusí být maximální konfigurace. 14 SM není moc kulaté číslo a proto je možné, že jde o záznam z ořezané verze. Plný čip by možná mohl obsahovat 16 bloků SM a 1024 stream procesorů. Možná, že takovou konfiguraci by pak mohla mít třeba GeForce GTX 1150 Ti (ale o názvu i tady jen spekulujeme).

Test grafiky Nvidia s 896 stream procesory v Geekbench (OpenCL)

O konfiguraci toho Geekbench už mnoho dalšího neříká. Frekvence GPU je uvedena 1,56 GHz (což ale asi nemusí být referenční/konečná frekvence). Grafická paměť má kapacitu 4 GB. Jaká technologie nebo frekvence bude nasazena, ale nevíme. Ale kapacita znamená, že sběrnice musí být buď 64 nebo 128 bitů (to je asi pravděpodobnější), jde-li o technologii GDDR5/6 a nikoliv o HBM2. Grafika by snad mohla mít o něco málo víc než polovinu výkonu GeForce RTX 2060 (pro kterou je také k dispozici záznam v databázi Geekbench). V OpenCL dostala 114 206 bodů, kdežto pro RTX 2060 je udáváno skóre 211 876 bodů.

Desktop verze karty se může od notebookového nálezu lišit

Je třeba upozornit na to, že testovaný počítač byl evidentně notebook (soudě dle procesoru Intel Core i7-8750H), takže specifikace v Geekbench patří GPU pro notebooky. Desktopová varianta stejné grafiky bude tedy pravděpodobně vypadat jinak. Pokud mezi verzí pro notebooky a ekvivalentem pro stolní PC budou rozdíly, mohla by asi desktopová karta provozovat GPU na vyšší frekvenci. Teoreticky by možná mobilní varianta mohla používat vyšší množství aktivních shaderů na nižší frekvenci oproti desktopové, ale častější je, že se specifikace v tomto neliší.

Notebooková verze těchto GPU bude pravděpodobně představena už brzo. Již nějakou dobu kolují informace, podle nichž Nvidia chystá mobilní Turingy a obvykle se čeká, že budou odhaleny na veletrhu CES 2019, který nastane hned na začátku ledna. Kdy by mohla vyjít desktopová verze, to už tak snadno odhadnutelné není. V závislosti na tom, zda třeba Nvidia nepotřebuje ještě doprodávat starší GPU Pascal, by totiž uvedení nových GPU mimo notebooky mohlo být opožděno.

Objevena další grafika Turing, Nvidia chystá GeForce s 896 shadery. GTX 1150?
Ohodnoťte tento článek!
4.3 (86.67%) 15 hlas/ů

86 KOMENTÁŘE

    • Kdyby to bylo jen k vuli AMD… ale pokud NV zustane u stejneho/poobneho pomeru vykon/cena jako u RTX serie, ktery neni o moc lepsi nez u Pascalu, nebo je i horsi, tak upgrady karet, aby jsi za stejne penize dostal vic vykonu prestanou davat smysl…

    • Ahahahah, vtip roku… Hlavně, že Nvidia slavná má nejhorší ovladače všech dob. Tolik chyb jsem nezažil… Svaté AMD, kdy ti přinejhorším zvýší výkon/optimalizaci a stabilitu. Todle to všechno u Nvidie jde dolů. Takže fuck off.

      • To je zajimave, jedu turing od day0 a jediny problem, ktery jsem zaznamenal s prvni verzi ovladacu, ze se mlatila s Afterburnerem. Ve 30ti testovanych hrach zadny problem, i ten Batman-AK chodil, kyho vira! Predtim s 1080kou take zadny problem.

      • LDASCZ 26.12.2018 at 10:38
        “Ahahahah, vtip roku… Hlavně, že Nvidia slavná má nejhorší ovladače všech dob.”

        Nejaky konkretnejsi priklad? Ja sice RTX nemam, ale s GTX jsem nenasel nic konkretniho, ale rad se poucim. Ze sve zkusenosti muzu rici, ze problemove ovladace melo spise AMD a jeste predtim ATI, nez Nvidia.
        Co me na Nvidii stve je, ze kaleji na opensource. Oni to teda delaji i v AMD, ale v mnohem mensi mire. Tedy v tomto ohledu se ovladace Nvidie kritizovat daji, ale ze by jim neco nechodilo, nebo chodilo spatne, to nevim (porodni bolesti novych technologii beru v potaz jen od urcite miry, protoze tomu se nevyhne nikdo).

  1. Podle této geniální logiky je 95% uživatelů nVidie třeba podle Steamu ,,chudobných,, 🙂
    Řada RTX je taková bomba,,že na Steamu ani nefiguruje.
    Ale osobně se na uvedení nových levnějších karet od nVidie těším,alespoň zlevní RX570/580.V okolí si řada lidí koupila nový (další) monitor a až na jeden každý má Freesync,takže pokukují po vhodných grafikách.

    • Jj AMD fans si holt budou tvrdohlave kupovat horsi technologie, protoze AMD nema alternativu a koupit Nvidii by pro ne byla asi zivotni prohra nebo co. Freesync misto Gsyncu, Radeony bez raytracingu a AI akcelerace (a bez spousty dalsich veci, jako tile-based rendering, SMP, VRS, …) 😁

      • Mauditku,jsi případ.To není urážka to je diagnoza.Běž se proboha léčit…
        V době kdy je Freesync dávno uznaný a používaný standart doporučování Gsync zle brát jenom jako ironii.Tedy,pokud není někdo masochista a nehodlá platit za předražený monitor jenom proto aby se nVidia zbavila svého HW v monitoru….
        RT? Vážně? Znovu a naposled.Až jednou a otázka je jestli vůbec bude mít RT smysl a bude v mít podporu i jinde než v pár předražených kartách které jsou zajímavé hlavně tím jak umírají,tak otravuj s RT.Do té doby si ty lesklé zubaté hnusné něco klidně …Natiskni.Ale jako zabiják výkonu je RT super 🙂
        A ty tvé další věci.Až na to že na spoustu věcí má AMD alternativu(ale jenom zaslepenec je nechce vidět).

        A zcela vynechám realitu že 570/580 má nejlepší poměr cena výkon hlavně 3GB konkurence od nVidie je spíše špatný vtip.

        • Koukam, ze z toho AMD rause vas nevytrhne skoro nic 😁 Tak mi povez, jakou PLNE FUNKCNI a srovnatelnou alternativu ma AMD ke kazdy z tech technologii? 😁 A nejaky kecy o tom, ze to ten jejich hardware urcite ma ale jen to neni zprovozneny v ovladacich me nezajimaj. Tvrdy fakta, mas? 🤣

          A jakou vykonovou alternativu ma AMD k Nvidii? Protoze Vega, ktera mela byt high-end AMD (vsak ma high-endovou velikost cipu a vic nez high-endovou spotrebu), ma aktualne sotva polovicni vykon oproti high-endu Nvidie. Takze ne, ze by AMD prodavala levne, protoze chce, ale protoze musi 😁

          • A že tu Maudit nebyl, když AMD podporovalo plně DX12 už od začátků a Nvidia to dotahovala až s další generací. o tom ani nepípl. Teď má plnou hubu keců a technologií, který nikdo moc nechce.
            Prostě Obrmajer má zde přezdívku Maudit, nebo spíš magor? jo, to zní líp a je pravdivější.
            Jo a prosím, napiš, že jsem z DDworldu, ať máš aspoň něco napsat, ju? 🙂

            • A kdy ze Nvidia nepodporovala DX12 plne? 😀 Zas nam budes vykladat Stachovo pohadky o asynchronich shaderech? 😉

            • Ale no tak, nedělej ze sebe ještě většího debila než si.
              Stačí se podívat na testy DX11 versus DX12 u AMD a Nvidie -> AMD u DX12 =mírný vzestup výkonu, u Nvidie velký propad. Tomu říkám podpora DX12 jako prase. Ale chápu, že u Nvidie ti to stačí.
              Ale AMD je teď nejhorší, protože nepodporuje dostatečně rychle (dnes naprosto zbytečnou technologii) RT. 😀 😀 Ty ale umíš pobavit Obrmajere

            • @Wendak:

              “Stačí se podívat na testy DX11 versus DX12 u AMD a Nvidie -> AMD u DX12 =mírný vzestup výkonu, u Nvidie velký propad. ”

              Zober si teseláciu v DX11. V testoch, kde sa využívali ultra nastavenia teselácie malo zasa AMD o dosť väčšie prepady ako NVIDIA. Znamenalo to, že AMD nepodporovalo DX11?

              Pokiaľ by NVIDIA naozaj nepodporovala DX12 alebo nejaké jeho súčasti, ktoré sa používajú, tak by si dané fíčury či dokonca kompletne celú hru nemohol na jej grafikách ani spustiť. Celý ten ošial okolo nepodpory DX12 bol len pekne vyhypovaný hoax.

              “Ale AMD je teď nejhorší, protože nepodporuje dostatečně rychle (dnes naprosto zbytečnou technologii) RT.”

              Ako veľmi potrebná je napríklad podpora pre toľko hypované asynchrónne shadery? Podľa mňa menej ako RT. 🙂 Taktiež podľa mňa je dosť veľký prínos DXR a RTX aj v tom, že sa na ne pripravia herné engine-y a vývojári sa s DXR naučia pracovať. To je ešte mimo vizuálneho prínosu. Viem si ale predstaviť, že RT pre niektorých ludí prestane byť zbytočné až v momente, keď s jeho podporou príde AMD. 🙂

            • Wendak 27.12.2018 at 12:01
              “Stačí se podívat na testy DX11 versus DX12 u AMD a Nvidie -> AMD u DX12 =mírný vzestup výkonu, u Nvidie velký propad.”

              Podle me byla Nvidia mene pripravena na DX12 a hodne veci se na Nvidiich litalo v DX11, zatimco AMD uz ficelo na DX12 mnohem lepe. Nicmene je treba zvazit i to, ze AMD s jejich HW a nepodporovanim DX12 / Vulkan / Mantle by sli velmi rychle do haje, protoze Nvidia by je vykonem velmi rychle rozdupala na cucky i v mainstreamu. Takze trosku dusledek priciny slabeho HW. Uz si presne nepamatuji jak dlouho po prichodu DX12 ale zacala Nvidia dorovnavat a pak i vest – a zase jsme u toho HW (stacilo jen “optimalizovat ovladace”). Myslim si, ale ze chapu vas pohled, Nvidia se proste nestarala – spatny pristup, AMD delalo co mohlo – nemeli na vybranou.
              Co se tyka RT a pouzitelnosti, to uz je na zvazeni kazdeho, ale netvrdil bych, ze to je na nic. Ba dokonce si myslim, ze by AMD melo hodne rychle neco busit, aby dalsi generace grafik nebyly jen trapne refreshe aka RX 590, ale konkurenceschopne cipy s nejnovejsima technologiema jako napr. RT. Ja treba nejsem clovek, co by si sel RTX koupit, protoze nemam duvod a nehodlam dotovat nenazrane firmy jako Nvidia (kdyby si AMD vymenilo pozici s Nvidii, udelal bych to same – nezivil bych AMD). Kdyby ale Nvidia vydala RTX ve velmi podobnych cenach jako desitkovou radu GTX, rozhodne bych RTX kartu koupil, protoze bych to povazoval za win-win (Nvidia by mela penize na vyzkum technologii a vysledky z realneho provozu od uzivatele “zadarmo”; ja bych pak mel vykonnejsi kartu za “stejny” peniz nez starsi rada a mel bych moznost experimentovat s novymi technologiemi. Realita je ale takova, ze Nvidia si – dle meho – rekla o nesmyslne penize, za neco co ja osobne nepovazuji za kvalite odpovidajici dane cene. Proto stavajici radu RTX nemam. Posun technologie ale hodnotim kladne, protoze vyvoj v RT i DLSS uzivatel potrebuje – pokrok.

        • Tak ja jsem si treba G-sync monitor kupoval, protoze v dane kategorii vykonu AMD nemelo co nabidnout, takze jsem si ten monitor logicky paroval s Nvidii. A ano, varianta monitoru s Freesyncem by byla o cca tretinu levnejsi.
          Ale s tim nemocnym clovekem mate pravdu, lepsi je ho proste ignorovat, protoze diskutovat se s nim neda.

            • Kde jsem zminoval 32″, pane Crho? Ale hlavne, ze krive nekoho narknete ze lzi. Nez priste neco napisete, tak napocitejte do 10 a pekne se uklidnete 😉

            • A jeste muzete vysvetlit, kdyz uz jsme u toho, proc by mela byt kravina 27″ monitor s G-Syncem? Tim jste jako myslel, ze smysluplnost G-Sync zalezi na velikosti monitoru?

    • Chcel by som vidieť ako na Steame po prvých troch mesiacoch figurovali Vegy. 🙂 Povedal by som, že asi podobne ako teraz Turing Toto by som radšej fakt nevyťahoval.A to, čo máš v druhom komentári ako:

      “Až jednou a otázka je jestli vůbec bude mít RT smysl”

      To fakt nepotrebuje komentár. To si vážne niekto, kto sa tvári, že vie čo to RT je myslí, že nebude mať RT zmysel? 🙂

      • Jj, navíc ty Vegy nejsou v sumárním přehledu dodnes.
        Jinak tipuji, že Nvidia bude mít opravdu dvě herní řady. RTX a GTX. Přičemž uvedení RTX před GTX je logické. A opět to vypadá, že cena je hlavně závislá na velikosti čipu a použitém výrobním procesu. Nebo minimálně RTX řada z toho nevybočuje.

        • Wau, je to divný, ale s HWSpeedy souhlasím.
          Nvidia vydala svoji vlajkovou loď – RTX a chce vydělat peníze, aby se vrátily náklady za vývoj, pak teprve vydá GTX bez RT a možná dalších fíčur, aby vyplnil mezery v trhu a uspokojil ty, co RTX nechtějí, což je logicky naprostá většina – už z pohledu financí (aspoň doufám, že GTX budou rozumněji zasazené cenově).

          • Já jsem pořád “přesvědčen”, že vydají výkonově srovnatelné GTX grafiky (myšleno bez použití RT) které budou fyzicky ořezané o nepotřebné části čipu. A že budou o to levnější. Samozřejmě pokud nepříjde AMD co nejdříve se skutečnou konkurencí, tak si na tom Nvidia “patřičně” přirazí.
            Taková GTX 1180 (GTX 2080) s cca 3000 shadery, plocha 300-350 mm2, tomu odpovidající cena.

            • Stat se muze cokoliv. Ale byli by sami proti sobe vydavat ne-RTX grafiky. Pochopim to v low-endu, kde je cena cipu dulezita. Ale mainstream a high-end by mely byt vsechny s RTX, aby tu technologii melo co nejvic lidi a co nejrychlejsi vyjeli z ty situace “chicken-or-egg” (neboli z pozice uzivatele “nechci kupovat RTX hardware, kdyz neni moc raytracing her”, z pozice vyvojaru “nechci vyvijet raytracing hru, kdyz neni mezi hraci moc RTX hardwaru”).

              Ted je prave pro nastup takovy technologie idealni cas, protoze AMD je zaostaly a realne vykonem polovicni (hugh-end AMD proti high-endu Nvidie) a Nvidia se nemusi trapit s konkurenci. Pokud by AMD mela konkurencni vykon, nemohla by si Nvidia jen tak dovolit tolik plochy cipu venovat raytracingu a tensor cores, protoze by pak ztracela v klasicky rasterizaci.

              Proto predpokladam, ze AMD ted horecne meni plany a jejich pristi generace bude obrovsky (mozna i multi-die)brute force GPU s co nejvetsi rasterizacni silou (protoze stejne efektivni raytracing a tensor cores implementace jim mozna par let potrva). A budou tvrdit, ze raytracing je zbytecnej. Ale kdo vi, treba se pokusi vydat nejakou rozumnou DXR mainstreamovou grafiku, nebudou se snazit umele brzdit pokrok a nebudou to takovi kok**i jako doted.

      • Ano, Steam statistiky jsou samozrejme blbost. Data by se musela sbirat primo z OS. Pokud by tento sber a stitastiky mely jen Windows, asi by to i stacilo na slusnou predstavu, jaka je situace. Stejne by to ale muselo brat v uvahu i cas behu aplikace a to vcetne tech pracovnich, aby se dalo rici – toto je skoro ciste herni pocitac, toto je stremovaci, toto je renderovaci, …

    • proč? 3GB už od 1050 nahrazují 2GB edice. Tohle je jen dokonání. A na fHD 3GB bez AA z valné většiny stačí. Skok ze 2GB rovnou na 4 by byl v tomto segmentu příliš. Vidím to jednoduše – nástupce 1050 bude mít ty 3, Ti bude pořád na 4 které jsou víc než dost a šestka zůstává mainstreamu.

          • Mno a jaký výkon očekáváš Ty? 🙂 Opakuji už u 1060 to dělá problémy… 🙂 Čekám na Tvé bujaré úvahy 🙂 Jo a než začneš, tak si přečti co napsal Jan O. níže… Mluví totiž pravdu a na to jsem narážel…
            Tak čekám s čím přijdeš 🙂

            • Pinda blbosti, jako vzdycky. Viz. link primo na Turing Architecture Whitepaper v postu dolu.

              A ja se ptal prvni. Ty delas zavery o vykonu. Ja ne. Takze cim to jako hodlas podlozit, trdlo?

            • Maudit 26.12.2018 at 22:04
              A krom napadání…
              Cekam na Tvy moudra… Tak jaky vykon cekas? Ma to mit RTX a jen 3GB … Myslis si ze Tvy moudro o kompresi to dozene? Tak se pochlub cekam…
              Jinak ja vychazim ze zatim dostupnych informaci a ty byly, ze 2060 maji mit podoby vykon jako 1070.
              Tak a ted Ty 😉 A cekam specialne na Tvy moudro k 3GB edici jak vidis vykon jak s RT a jak to bnude slapat 🙂 3GB uz je na skodu u vykonu orezane 1060.
              Tak sup sup do toho 🙂 Zatim jsi nepredved nic… Ostatne jako vzdy 🙁

            • Tak nam dej nejaky linky na potvrzeny testy. Mas? Nebo se budes odvolavat na nejaky dost mozna predprodukcni vzorky? Jestli to nebyl uplnej fake uz od zacatku 🙂

            • Kde ja mluvim o tom, ze ocekavam nejakej vykon? Ja se te snad ptam, co ocekavas? Ne. Ja se te ptam, kde mas nejakej podklad, nejaky dostupny recenze finalniho produktu, pro ty svoje pindy 😉

              “KOCHREN 26.12.2018 at 15:29”
              “Při výkonu 1070 ani komprese nepomůže”

              “Maudit 26.12.2018 at 17:10”
              “A ty uz mas testy ty trdlo, ze tu mluvis o vykonu? 😁”

            • Maudite zas jak male dite… postoj chlapa uz vim ze od Tebe ocekavat nemuzu…
              1. je az tragikomicke jak zrovna Ty se nyni chces ohanet testy… Ty ktery si tu siril pred prichodem RTX grafik sve bludy o jejich vykonu… bez testu… ono se taky nakonec ukazalo ze to byly jen bludy a vymysly. Nyni aspon existuje 1 test co naznacuje vykon…. nedelej ze sebe zas tak blbeho ze o tom nevis bylo to zmineno i tady v diskusich…
              2. kdyz pisu, ze 3GB dela potize u grafiky o vykonu 1060 tak tim chces naznacit ze to bude mit nizsi vykon aby to nedelalo potize? Protoze cim vyssi vykon tim to bude zretelnejsi…
              3. Ani Tve kecy o kompresi proste nenahradi chybejici pamet…
              No a konecne za 4. Ty jsi fakt sasek a demagog prvniho razeni fakt kde se na Tebe hrabe DDW ci Obermaier 😀 Ty je trumfns vsechny 🙂 Hele Ty se tu snazis vysmivat ze nevim vykon a tak jsem se ZEPTAL jaky vykon tedy ocekavas Ty kdyz jsi jako vzdy tak chytry 🙂 ZEPTAL… Tva reakce? “Kde ja mluvim o tom, ze ocekavam nejakej vykon?” Ses vazne tak navrdly a nebo jsi umyslne zs prevratil a uhnul od podstaty? Jak jsem psal ja i Jan O. jsi genialne splachovaci jen aby si TZV vyhral v “diskusi” 🙂

            • Nech ho KOCHRENE, asi hraje jednu z tech 21 her s RTX a nejak nestiha ty odlesky.. 😉

            • tombomino 27.12.2018 at 10:25
              No on Maudit už zCrhovatěl… Nezmůže se na nic jen na napadání a snahy povyšovat se nad ty kdož nesdílí jeho mantru…

            • “Nezmůže se na nic jen na napadání..”
              To on delal vzdycky, Vysmiva se apriori vsemu, co ta jeho mentalni porucha neni schopna pochopit pojmout…zbytek si vylze a vyfabuluje…

            • KOCHREN 27.12.2018 at 9:18 , tombomino 27.12.2018 at 10:25,
              mne hlavne vadi ten nepratelsky ton a cil nekomu ublizit a povysovat se nad nim. A kdyz dojdou argumenty – ktere dojdou vzdy – tak nenapadne prestat odpovidat, nebo urazet jeste vic. Hlavne je to ale naprosta ztrata casu s nekym takovym vubec diskutovat. Ztrata casu.

            • Tak už jich je pět. Pět chrabrých bojovníků za AMD, pan Tombimino, sir Tynýt, el kapitáno Kochreno, de Alich a ing. Aznahoh.

      • Komprese (ta komprese barev/delta komprese/bezeztrátová komprese co je tu o ní řeč) šetří propustnost obrazových dat/pixelů při přenosu do RAM. Protože jsou to framebuffer data, tak to ale celkově není moc megabajtů a tudíž to není směrodatné pro to, jestli kartě chybí nebo nechybí grafická paměť. To, na co té kartě eventuálně nebude paměť stačit, jsou hlavně textury. A ty nepodléhají barevné kompresi v tomhle smyslu, jsou už předem komprimované jinými metodami (většinou ztrátově).

        • Ach ouvej. Kdybys radeji nejdriv cetl, nez neco napises. Samozrejme, ze ta komprese snizuje i mnozstvi dat zapsanych do pameti, ne jen mnozstvi prenesenych dat.

          “Turing Memory Compression”
          “This reduces the amount of data written out to memory and
          transferred from memory to the L2 cache and reduces the amount of data transferred between clients (such as the texture unit) and the frame buffer.”
          https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf#%5B%7B%22num%22%3A94%2C%22gen%22%3A0%7D%2C%7B%22name%22%3A%22XYZ%22%7D%2C108%2C721%2Cnull%5D

          • Ale týká se to kolika, 5% max. z celé kapacity zabrané hrou? (Jestli má někdo konkrétní čísla k tomu, kolik dělá typicky u hry framebuffer a podobná data a kolik RAM jsou textury, tak se rád poučím.) Asi si nepochopil smysl toho příspěvku.
            Myslíš, že ta komprese pamětí funguje na paměť, zabranou texturama, nebo proč nesouhlasíš?
            A v tvém cintátu se btw neříká, že by to zvětšovalo efektivní kapacitu RAM.

            P.S. než tu začne hádka o tom, že básník měl na mysli něco jiného, tak se bavíme o kapacitě, jelikož jsi reagoval na “Už nyní se ukazuje u 1060/3GB že to je prostě málo…”

            • Jane neboj on Mautit stejne zas uhne od tematu a bude placvat neco jineho 🙂 A bude se snazit dehonestovat toho druheho 🙂
              Ale zatim se chova jak 12 lety pubos co si mysli, ze sezral veskerou moudrost sveta… a i kdyz prokazatelne kecal a lhal a druhe pri tom zesmesnoval, takl to neprizna… Neni evidentne vyrovnany a neumi se chovat jak chlap… Boji se ze by se mu zbortil domecek z karet, a ze by tim ztratil svou tvar… Nedochazi mu ze prave tim ze se neumi k veci postavit primo a neumi se chovat jako chlap tu tvar uz davno ztratil…

            • Jezis to jsou zase vymluvy.

              Jpeg do GPU pameti fakt neulozis. Textury se zpracovavaji v DDS formatu. Jsou tam presne definovany kompresni formaty a ta komprese je jinyho charakteru (de facto jde o raw data, u kterych definujes, o ktery slozky ti nevadi prijit). Duvod je jednoduchy – bylo by tezce neefektivni dekomprimovat data nejakou slozitou kontextualni kompresi az pri samplovani. Pristup k datum textur musi byt super-rychly. V jakem formatu se ta data fyzicky ukladaji v pameti GPU je “implementation-specific”, paklize ta implementace dodrzi format zminene nahore.

              Precist si o tom muzes tady:
              https://docs.microsoft.com/en-us/windows/desktop/direct3d11/texture-block-compression-in-direct3d-11

              A protoze jsou ty formaty jasne definovane, neni duvod, proc by se na ne nedala aplikovat lossless komprese primo v GPU.

              Tady mas seznam texture formatu v D3D11/12:
              https://docs.microsoft.com/en-us/windows/desktop/api/dxgiformat/ne-dxgiformat-dxgi_format

              Pak si napis jednoduchej D3D progam na ulozeni nejakych raw texture dat a pak compressed texture dat na Turingu a pouzij tohle API, aby jsi zjistit, kolik zabiras pameti pred/po nacteni, versus raw velikost dat:
              https://docs.microsoft.com/en-us/windows/desktop/api/dxgi1_4/ns-dxgi1_4-dxgi_query_video_memory_info

              Tady mas knihovnu, ktera ti ten tvuj jpeg prevede do DDS:
              https://github.com/Microsoft/DirectXTex

              Hezky si to zmer a pak nam tu o tom neco povez. Diky tomu tu snad zas nebudes fabulovat nejaky absurdni teorie, ktery primo odporujou dokumentaci, jako jsi to predved s DLSS. Treba nam dodas nejaky logicky vysvetleni, proc by ta lossless komprese nemela byt (v rozporu s tim whitepaperem) aplikovatelna i na textury.

            • Tady jsem jeste nasel krasny odpovedi na stackexchange prave o tom, proc se na GPU pracuje s raw daty (diky cemuz je mozne na ne aplikovat implementation-specific lossless kompresi):

              “JPG and PNG files will almost always be smaller on-disk than in memory; they need to be decompressed on-the-fly to acquire raw RGB data”
              https://gamedev.stackexchange.com/questions/5171/how-much-memory-does-a-texture-take-up-on-the-gpu

              Ty zlepseni v kompresi dat na GPU nejsou v tom, ze by vymysleli nejake super-efektivni algoritmy (typu JPEG). Ty jsou v tom, jak ulozit komprimovana data, aby se zaroven dala rychle cist pri samplovani.

            • Ten citát z druhýho komentáře je irelevantní, jestli si myslíš, že textury se komprimujou jpegem a png, tak to je problém u tebe.
              Tohle je co jsi si tam měl vzít: “More info on DXT: it’s a lossy compression; this means, some color data is lost when compressing the texture.”

              Takže ty si myslíš, že komprimovanej formát lze ještě jednou účinně komprimovat? Zkus si patentovat rarování zipů, asi na tom vyděláš miliardy 🙂 A možná i nějakýho toho Nobela za prolomení fyzikálních zákonů.
              Je sice možný, že ty koprese textur jako je S3TC a tak jsou dál komprimovatelný obecným algoritmem, jelikož jsou dělané na rychlou dekompresi, ale počítám, že taky nebudou moc přístupné těm lossless (a podobně na rychlost dělaným) algoritmům.

              Zkus si ten svůj program napsat a ukázat výsledky, taky by mě to zajímalo.

            • “Myslíš, že ta komprese pamětí funguje na paměť, zabranou texturama, nebo proč nesouhlasíš?”

              Honzo a jak si to predstavujes? Kdyz se data pred transferem zkomprimuji, v ram je jako dekomprimuje kdo? 😉

            • Prosimte Hnizdo on si do ted myslel, ze se v pameti GPU ukladaji textury jako jpegy a png. Do ted netusil, ze se ukladaji jako raw data, takze na ne jde aplikovat bezztratova komprese.

              A porad nam nevysvetlil, proc by pro frame buffer data mela platit jina logika, nez na textury, kdyz jde tak jako tak o raw rgb data 😉 To nema cenu hele. On si tu stejne jako s DLSS bude placat ty svoje kraviny, a to stejne jako u DLSS bez jedinyho podkladu a dukazu, i kdyz primo whitepaper Nvidie mluvi jinak. Zbytecny.

            • Chlape zatracená… i ten citát z materiálu Nvidie mluvil o tom, že komprese pamětí šetří propustnost/kapacitu při transferech do framebufferu. Nic o texturách.
              „Turing Memory Compression“
              „This reduces the amount of data written out to memory and
              transferred from memory to the L2 cache and reduces the amount of data transferred between clients (such as the texture unit) and the frame buffer.“
              Tvůj citát…
              Když mi to, že se to aplikuje na textury, potvrdí nějakej skutečnej expert, tak prosím. Ale ne cvok, co o tom ví prd, ale co neví, si ochotně vymyslí.
              Promiň, ale po tom všem, co jsem tě už viděl bezostyšně nalhávat, jsi jak ten pasáček co křičel “Vlk”. Jak mám věřit něčemu, co je podložený “tvrdí to Maudit”

              P.S.
              Jo a o jpeg/PNG si začal psát ty, tak mi to nezkoušej cpát do pusy!
              Nedivil bych se, kdybych o kompresi textur věděl delší dobu, než ty vůbec opruzuješ na českým internetu. i když teda nevím, kolik je ti let, třeba se pletu a jsi ve vyšším věku, než na kolik vypadáš, jenom to není znát.

            • “Maudit 26.12.2018 at 23:04”
              “Jezis to jsou zase vymluvy. Jpeg do GPU pameti fakt neulozis. Jsou tam presne definovany kompresni formaty a ta komprese je jinyho charakteru (de facto jde o raw data, u kterych definujes, o ktery slozky ti nevadi prijit). Precist si o tom muzes tady:
              https://docs.microsoft.com/en-us/windows/desktop/direct3d11/texture-block-compression-in-direct3d-11

              “Jan Olšan 27.12.2018 at 10:38”
              “jestli si myslíš, že textury se komprimujou jpegem a png, tak to je problém u tebe.”

              Fakt bezpaterni spinmaster 🙂 Ale mam pro tebe novinku @janoslan, lidi nejsou uplne blbi a slepi, nastesti.

            • “This reduces the amount of data written out to memory” je presne ta klicova cast, ktera ZCELA JASNE rika, ze vylepseni komprese snizuje mnozstvi dat zapsanych do pameti. Jakyho experta na to potrebujes? A cim hodlas podlozit tvoje tvrzeni, ze je z pohledu komprese nejakej rozdil mezi datama ve frame bufferu a texturama? 😁 Klasicky olsanovsky neco tvrdis a jsou to jen nepodlozeny blaboly, zatimco dostupna fakta tvrdi opak.

              Neboli dalsi argumentacni klam:
              “Závěr induktivního úsudku je odmítnut, přestože existuje dostatek důkazů na jeho podporu.”
              https://cs.wikipedia.org/wiki/Argumenta%C4%8Dn%C3%AD_klam#Leniv%C3%A1_indukce

            • Maudite
              Nestačím žasnout co všechno Ti tu projde a jak moc tu jsou benevolentní… Nicméně komprese není nic nového nic s čím by z čista jasna přišly teď nově grafiky…. Když už tu zas tak napadáš ostatní… hele víš co by mě zajímalo? Kolik tedy počítáš že díky ty kompresi získají ty 3GB a 4GB edice… Abych Ti i udělal radost tak to můžeš srovnat i s AMD grafikami ale budu chtít i srovnání s předchozí generaci nVidie 🙂
              Tak šup šup do toho a predveď se 😉 PS: kdybys náhodou čistě náhodou nepochopil co je myšleno tak třeba uveď, že 3GB nyní je jako 6GB predtim 🙂 jsem zvědavý co z Tebe vypadne 😉

            • Maudite ještě poslední dodatek…
              Ono to jpeg/PNG jsi tu vážně zmínil první Ty ve svý argumentaci 🙂 Stačí dát ctrl+f a zadat třeba PNG 😉
              https://www.cnews.cz/dalsi-grafika-turing-nvidia-geforce-896-shadery-mozna-gtx-1150/#comment-201897

              Takže Tvá další hláška “lidi nejsou uplne blbi a slepi, nastesti.” opravdu sedí jenže jako vždy jaksi ve Tvůj neprospěch… A znovu zopakuji… žasnu nad tím co Ti tu projde… Jestli to máš jako zábavu navážet se do lidí, tak musíš mít hodně smutný život a psychické trauma.