Nvidia chystá i GeForce GTX 1160. Levnější Turing, ale už bez ray tracingu?

92

Nedávno se vynořily informace, podle nichž Nvidia chystá GeForce RTX 2060, tedy kartu Turing levnější než momentálně nejnižší model nové generace, RTX 2070. Údajně by měla být odhalena druhý týden v lednu. Ovšem vypadá to, že zároveň chystá Nvidia ještě jeden model končící na šedesátku: GeForce GTX 1160. Znamenalo by to, že nová generace grafik bude rozštěpená mezi řadu RTX a řadu GTX, přičemž levnější modely budou právě v druhé z ní.

Informace o této grafice dostal web VideoCardz a čínský Expreview, jehož článek ale není veřejně přístupný. Informace od čínského webu uvádějí, že by se karta měla jmenovat GeForce GTX 1660 Ti, což by bylo poněkud nezvyklé. Podle VideoCardz by karta ovšem měla mít méně zvláštní označení GTX 1160 (zřejmě bez „Ti“). Každopádně by měla představovat levnější grafiku, než bude nadcházející GeForce RTX 2060. To znamená, že asi buď nahradí GeForce GTX 1060, nebo zamíří na pozici mezi GeForce GTX 1060 a GTX 1070/RTX 2060.

Levnější Turingy nebudou RTX?

Zdá se poměrně pravděpodobné, že změna značení zpět na „GeForce GTX“ implikuje, že tyto grafické kary už nebudou umět ray tracing na tzv. RT jádrech jako nové karty GeForce RTX. Ovšem není to asi tím, že by šlo jen o přeznačené 16nm čipy Pascal z roku 2016. Podle VideoCardz/Expreview by totiž i v těchto grafikách měl být nový čip generace Turing a snad i paměti GDDR6. Nese údajně označení TU116 (proti TU106 v RTX 2070 a RTX 2060) a jde asi o separátní křemík. V materiálech, které Expreview publikoval, je řeč o „Turing Shaderech“ místo RT jader. Z toho by mohlo vyplývat, že GPU TU116 sice bude mít novou a vylepšenou GPU architekturu z Turingu, ale RT jádra z ní mohla být odstraněna.

Údajný marketingový materiál k GeForce GTX 1660 Ti, či GTX 1160 (Zdroj: Expreview, via VideoCardz)

Zda by chyběla také tensor jádra, která se kromě výpočtů strojového učení v datacentrech používají také ve hrách při upscalingu DLSS, už tak jasné není. Nvidia DLSS často řadila k ray tracingu v rámci technologií „RTX“ v kontrastu k starším „GTX“ grafikám. A mohla by tento hardware z čipu vyřadit stejně jako RT jádra, aby byl menší a levnější. Ale úplně nutně k tomu dojít nemusí, zde si budeme muset počkat na víc informací.

GeForce RTX 2060 by asi měla být nejlevnější kartou řady GeForce RTX nesoucí RT a tensor jádra. GeForce RTX 2050 se údajně už nechystá a nižší a lowendové karty budou obstarány jen řadou GTX 1100.

Více detailů ke grafice GeForce GTX 1160 (nebo 1660 Ti), ani k čipu TU116 zatím nemáme. Je však možné, že se to brzy změní. Podle VideoCardz totiž snad její vydání není nijak daleko. V článku totiž píše, že by GTX 1160 asi měla vyjít najednou s GeForce RTX 2060 (což mělo být v lednu), nebo aspoň budou ve stejné době oznámeny. Pokud je tomu tak, mělo by brzy prosáknout více informací.

Základní takt GeForce RTX 2060 jen 1320 MHz?

Mimochodem, VideoCardz zřejmě také našel údaj o frekvencích, na kterých by mohla běžet pro změnu ona GeForce RTX 2060. Číslo ale patrně ještě není úplně potvrzené, protože je napsal jen na Twitter, nikoliv do článku na samotném webu. Zatím proto tento údaj berte s rezervou: základní frekvence je údajně 1320 MHz, což by asi ukazovalo na snížené TDP oproti GeForce RTX 2070. Turbo Boost ale přirozeně může být zredukován méně. Podle na twitteristy Tum Apisaka se zřejmě objevily i informace ukazující na základní takt 1365 MHz, ovšem vypadá to, že to už je údaj pro karty s továrním přetaktováním.

Nvidia chystá i GeForce GTX 1160. Levnější Turing, ale už bez ray tracingu?
Ohodnoťte tento článek!
4.4 (87.14%) 14 hlas/ů

92 KOMENTÁŘE

          • By mě zajímalo, kolik lidí, co má RTX opravdu RT používá v reálných hrách. 0,00001% + testeři karet. Akorát to zpomaluje hru a rychlost je třeba v BF V celkem důležitá. Takže ano, kdo chce být stále mrtvý a je tím pádem masochista, pak používá RT zapnuté.
            Takže suma sumárum… ano RT jednotky jsou zatím zbytečné – a chápu, že se to Nvidiotům typu Maudit nelíbí, protože Nvidia přece RULEZ!!!

            • Tyjo tady je dneska snad celej ansambl z DDWorldu 😀 Kluci vy z toho raytracingu fakt snad nespite 😀

              Jasny, chapu, ze se skupinove snazite o damage control (zvlast fake ucty Stacha a Belky – treba Redmarx – jsou ted hodne aktivni), ale ono to pak vypada spis jako nareky. AMD proste ty technologie nema a jeste dlouho mit ani nebude, vzhledem kolik z jejich grafickyho oddeleni utika ted lidi. Ale treba bude AMD spokojeny i v lowendu, ne? Nebudte hned takovi pesimisti 🙂

            • Všetci, čo hrajú mulťák v BF V majú pozapínané všetko na full hej? A len ten RT celej hre škodí a spomaluje ju. Chápem to tak správne? 🙂

            • Maudit: Hezký, já o koze a Maudit o voze. Ani jedna myšlenka, která by vyvrátila moje tvrzení. Jsem rád, že si mi potvrdil, že mám pravdu. Díky moc 🙂
              BTW na DDworld jsem chodíval tak před 3-4 lety, teď tak jednou dvakrát za rok, takže sorry Maudite, opět smůla. Fakt mě mrzí, že si u toho trubka a ani nedokážeš argumentovat. Co už 😀
              Marek: ne, každej kdo má RTX kartu si RT určitě vyzkoušel, to by byl blázen kdyby ne, ale pak stejně zjistí, že FPS nejsou tak dobrý, jak chtěli, a buď půjde dolů s detaily a nebo vypne RT, aby jim FPS zase vyhouply nahoru – toť vše, co jsem chtěl říct. Prostě každý podle svého rozlišení, typu karty atd.
              Proto jsem netvrdil, že to nikdo nemá zapnutý – někdo se prostě rád kochá… a umírá

            • “Proto jsem netvrdil, že to nikdo nemá zapnutý – někdo se prostě rád kochá… a umírá”

              No jo. V pohode súhlasím s tým, že kto hráva mulťák tak si takéto fíčury zapínať nebude. 🙂 To ale neplatí iba o RTX, ale všeobecne. Vypínajú sa vtedy kvôli FPS viaceré nastavenia. Nikdy som ale doteraz nepočul, že by niekomu vadili, že tam také možnosti vôbec sú. Aspoň to tak bolo doteraz.

          • A proc by mel byt nekdo “AMD fans” jenom proto, ze se mu nepozdava RT?
            Neberte to osobne J. Olsane, ale tohle je logika idiotu typu Maudita na na mentalni urovni prvniho stupne zaklani skoly. Potazo..lidi kteri jsou dusevne nenormalni.

            Mne se na AMD taky nelibi urcite veci, proto jsem fanousek NV nebo Intelu? 🙂
            Potazmo, protoze kritizuji veci, ktere se mi na Intelu a NV nelibi, tak jsem fanousek AMD?

  1. Před rokem jsem chtěl koupit PC na provoz ve 4k, ice lake 4 – 8c, 1080Ti a 32″4k monitor.
    Za rok tu bude zen 2 na 7nm a nebo ice lake a pokud bude v prodeji GFX 1080Ti asi nebude jiné řešení.
    Kafé nachci, RTX 2080 Ti na 4k 🙂 ?
    Jensen Huang se měl postarat o jiné řešení, následník 1080 Ti bez RT a RT karta do druhého slotu jako přídavná, ale nevím jestli by to bylo možné.

    • Není lepší GK na non-RTX 4K než je RXT 2080Ti (pomineme-li tedy finančně náročný RTX Titan). Jako vlastník ASUS Strix 1080Ti OC vím, že i této kartě na vysoké detaily ve řadě her ve 4K dochází dech (rozuměj fps <60). S RTX 2080Ti by těch her bylo díky ~35%+ náskoku asi podstatně méně, ale za jakou cenu. Nové GTX 1080Ti jsou již prakticky celosvětově vyprodané, zbývají možná tak ještě nelákavá provedení okrajových výrobců.

      Nejvýhodnější doba na výhodný nákup GTX 1080Ti (z druhé ruky) bude myslím asi až po vyjítí 7nm RT 3080Ti.

    • Souhlas, měla to být přídavná karta pro RT + udělat 2080 TI bez zbytečných jednotek, pak (pokud by to nezabila cena), tak by to byl prodejní trhák. A kdo by chtěl RT, tak si přikoupí kartu… jak jednoduché, ale to by muselo mít vedení Nvidie místo očí s dolarovkama opravdu mozek.

      • To je videt, jak jste vy AMD fans omezeni. Raytracing nefunguje jako PhysX. PhysX aktualizuje objekty ve scene vicemene asynchronne. Nemusi se to delat kazdy frame a je to zlomek dat oproti raytracingu. Proto bylo mozne pouzivat pro PhysX vypocty druhou kartu.

        Raytracing se ale pocita pro kazdy frame, potrebuje mit nactenou celou scenu v BVH, a pro kazdy objekt pristup k jeho datum, kdyz se do nej paprsek trefi. To vsechno 10 miliard-krat za sekundu. To tezko muze jit mimo cip. Vase naivita je az zarazejici 😁

        • No když pominu ten útočný tón tak je to pravda. Ono teda ještě RT cores dělají jen část práce a ten výpočet ray tracingu v RTX zároveň potřebuje i shadery grafiky. Takže oddělit by to v téhle podobě skutečně nešlo (a taky by se musela duplikovat paměť a tak dále, takže nakonec by to bylo o dost dražší).

        • Presne tak a to je myslim ten duvod, proc Nvidia mohla zkouset RT nejdrive v profi segmentu a s odladenim az v hernim (napr. RTX 30×0). Na druhe strane chapu, ze pro ne je RTX 20×0 levnejsi a lepsi pro “business”, kdyz si dela reklamu s “prvenstvim” na trhu a zaroven ji to i pekne zaplati zakaznici. Business model a PR maji rozhodne lepsi nez AMD, aplikaci technologii take. Stejne se ale ukazuje, ze RTX je v 2 rade stale lehce nedopecene, proto ty nazory o “chci radeji vykonnejsi kartu bez RT a T cores”. Treba 1080 Ti uz se ve 4k zadychava a 2080 Ti je zase draha kvuli RT, takze i ja to vidim tak, ze 4k hraci, kteri cili na ultra rozliseni ve 4k s 60+ fps bud zaplati ranec za 2080 Ti, nebo musi cekat na jine reseni at uz v nove karte, nebo bazarovkach a Nvlinku.

          • RTX je uplne “dopecene” (jezis to je vyraz). Schopnost vyvojaru to pouzivat, to je to nedopecene 🙂

            Diky tomu je ted prave ten nejlepsi cas investovat do RTX technologie, protoze v hardwaru je vykonu dost a realny vykon bude nejaky cas de facto zadarmo stoupat, jak budou vyvojari vylepsovat svoje implementace.

            Snahy vas AMD ultras navodit ideu toho, ze by ten hardware nemel dost vykonu, selhaly v momente, kdy uz prvni patch BF5 zvedl vykon o 50%. A dalsi prijdou 😀

            • Jasne, je to plne dopecene a na trhu mame 21 her s plnou podporou RT a DLSS. 😉
              Jasne, ted je cas investovat do RTX karet, protoze jsou novinka na trhu a nemaji konkurenci a cena je vysponovana – takze ted je ten pravy cas? 😀
              Maudite, kupte si 4 2080 Ti, Kozenak bude spokojeny a vy budete moct vyrvavat na webech o AMD ultras 😉

            • Alich, řekl bych že jste to popsal naprosto přesne v obou příspěvích a na maudita by pasovalo i když už to není dnes moderní rčení „Aktívňí blbec je horší jak trídňí neprítel!“,

            • Uz v unoru to mame Metro Exodus, pak Tomb Raider, oboji s globalni iluminaci 😁

            • Maudit 24.12.2018 at 15:40
              Hele školil si tu Reda a další jak toi tu bude už v den uvedení prvních RTX a kde nic tu nic… zatím jedna… Tak konečně přiznej, žes kecal… Bylo jich tu 21 ? Ne dokonce ani 1 a ne 21… Tak konečně čekám slovo chlapa a přiznání žes kecal…

  2. Takéto riešenie by ale pre Nvidiu nebolo prvý krát. Viď situácia Geforce 4Ti vs Geforce 4mx kedy slabší súrodenec vôbec nemal pixelshadery. Ako vtedajší vlastník Geforce 4mx som veľmi rýchlo zistil, že mi nové technológie chýbajú. Ak sa to potvrdí, tak je to pre mňa bohužiaľ nezaujímavá karta.

    • Nepotvrdi neboj, i ja cerstvy fanda AMD, ti mohu smele rici, ze technologie rady RTX 2000 se nikdy standardem nestanou. DLSS je naprosta kravovina, kterou vetsina studii ignoruje a vzdy to bude jen volitelna funkce a RT bude nejdriv za 5 let a to jsem velky optimista, navic soucasna generace RTX 2000 ma RT implementovano tak, ze je to stejnak uplne nepouzitelne jako nakonec vetsina dalsich vychytavek od NVidie.

      Napriklad mohu dat cerstvou zkusenost ze Zaklinace 3, ktereho jsem rozehral a u ktereho jsem na graficke karte NVidia GTX1080 teda pomerne vykonne grafice, musel vypnout technologii NVidia Hairworks, protoze jsem po zapnuti teto volby nebyl schopen udrzet na grafice 60 FPS pri dnes beznem rozliseni 2560×1440. Tak k cemu ty NVidiacke technologie jsou, kdyz se to pak stejne musi vypinat, protoze u hry z roku 2015 to nedavam na highendove grafice vydane o rok pozdeji!

      • Tak Hairworks jsou hodně náročné, na druhou stranu, když je namaxuješ tak fungují na vlasy všech, mají tam pro ně speciální AA a ten pohyb vlasů je dost viditelný.
        Ale souhlasím, že to je první věc, kterou vypneš, když nemáš požadovaná fps.

        S 1080Ti ve 1440p už není problém jet na Witcherovi přes 60fps s namaxovanýma Hairworks, to mám vyzkoušené. 🙂

        Ale důležité je, že na to na rozdíl od RT nepotřebuješ speciální HW, nijak to neovlivňuje cenu grafik, atd. Je to prostě technogie, která ti dá super animaci vlasů za cenu řekněmes 25-30% výkonu, takže stejně jako aktuálně RT je to “hodně náročná kravina”, kterou moc lidí nebude používat.

        Jenže na rozdíl od RT kvůli tomu všichni nemusí platit za grafiky výrazně víc. Takže nevídím důvod, proč to Nvidii otloukat o hlavu.

        Naopak je super, že takovéto technologie vznikají (btw AMD má vlastní “hairworks” – AMD TressFX – velice podobná technologie a dokonce ji ani neměli později, tuším) – prostě pokud mám výkon navíc pro danou hru, tak proč to nezapnout. Pokud by takto fungovalo RT, tak si nikdo nestěžuje, jenže tam potřebuješ třetinu, nebo polovinu čipu vyhradit na RT cores + Tensor cores, takže to je úplně jiná věc, než nějaký SW jako Hairworks.

        • Za to já občas nadhodím, když někdo vychvaluje tyto bonusové technologie od NV, když toho přinášejí tolik a někdo by je chtěl mít standardem všude, ať si tedy někdo zkusí zapnout Hairworks spolu s kompletním GPU PhysX včetně APEX a k tomu Ray Tracing, pak uvidíme, kolik ty inovativní a přelomové technologie pojedou fps.
          Takže fyzika na takové pokročilé úrovni se pěkně dlouho nestane běžnou součástí her vylepšující herní zážitek, tím myslím součástí herních mechanik, protože výkon vždy byl tak tragický, že si každý těch pár vizuálních drobností vypnul pro zvýšení fps.

        • jj, jasne. Ja nic proti Hairworks nemam. Chtel jsem tim rict, ze vsechny tyhle technologie jsou bonusove a nikdy to nebude tak, ze by byly povinnou soucasti hry. Ve vysledku si to zapne je nepatrne mnozstvi hracu, jestli vubec nekdo, ikdyz recenzenti her jsou taky hraci. Spis je teda podpora tehlech efektu marketingovou zalezitosti.
          Jak pise KRoman47, proste ve vysledku, kdyby mel clovek zapnout ve hre vsechny efekty a jeste to hrat na 4K rozliseni, tak mu na to nestaci ani 4 zapojene RTX2080Ti vedle sebe.
          Jestli teda nekdo jako ja, mluvi o tom, ze by tu RT efekty mohli byt do 5 let, tak jsme jeste velci optimiste. Mnohem pravdepodobnejsi je, ze bezne hracske grafiky z cenou dejme tomu do 20K Kc nebudou RT efekty zvladat driv jak za 10 let, protoze vykon se s takovou razanci proste nezlepsuje. Zabyvat se tim dnes nema zadny smysl.

            • Nikoliv troubeline, a jinak odpovidat otazkou na otazku jen dokazuje, ze nemas zadne odpovedi. Nicmene v tvem pripade je to stejne jedno, protoze ty tvoje si muzes tak namazat akorat tak na chleba..

        • RT neni standard NVidie, RT je prirozenou soucasti DirectX a NVidie ho pouze implementovala podle standardu DRX a pojmenovala to RTX. Pokud bude za 10 let stale DirectX existovat, tak se mozna dockame i her s vyuzitim RTX, za 10 let bude vykon grafik jinde.
          Ale neni to jiste, ze za 10 let bude RT hromadne vyuzivan, porad je mozne, ze se diky vyssimu vykonu zlepsi i efekty rasterizace a tudiz na RT furt vykon nebude.
          Je to proste ve hvezdach.

            • A kdo rikal, ze DXR je standard Nvidie? Ve svym postu jasne pisu, ze to je soucast Direct3D 😀 Jenze milej zlatej, Nvidia na jeho definici spolupracovala s Microsoftem a ted ma svoji hardwarovou implementaci (RTX). AMD kde nic tu nic. Navic AMD se tomu standardu bude muset chte nechte prizpusobit.

          • “ze se diky vyssimu vykonu zlepsi i efekty rasterizace a tudiz na RT furt vykon nebude”

            Problém je, že čo sa dá technicky (aj keď s vysokými nárokmi na výkon) dosiahnuť v RT celkom bez problémov, to sa cez rasterizáciu musí fake-ovať a pridáva to veľa práce navyše. A zároveň sa to tiež stáva náročnejšie na výkon. Prirodzená cesta s narastajúcim výkonom je práve prechod k RT. To je niečo, čo stále nechcete z nejakého dôvodu niektorí vidieť. Tie tvoje odhady najskôr 5 rokov a teraz zasa 10 rokov sú len také výkriky do tmy. Nikto vôbec nečakal, že by sa mohol RT objaviť v herných grafikách už teraz a je to tu. To čo na jar zvládli 4 Volty, teraz dokáže jedna GPU. Pre niektorých je to ale očividne málo. Je to od NV, tak je to automaticky zle. Je to vidieť aj na tom, že aj keď sa výkon v RT zdvihol a RTX 2080 Ti teraz zvláda v BF V ultra RT na 2K s 60 a viac FPS, tak vám to stále nestačí aj keď je to oveľa lepšie ako vami posmešne proklamovaných 60 FPS vo FHD. Už vtedy 2080 Ti dávala 40-50 FPS v 2K, ale odmietal si to ty aj iní vidieť. Stále ste kecali o tom, že je 2080 Ti na FHD. Aj keby to bolo 60 FPS v 4K, našli by ste si na kritiku niečo iné.

          • Take si myslim, ze RT je budoucnost, protoze pridavat efekty pomoci rasterizace nepujde donekonecna. A rozhodne bych nebyl tak samozrejmy v tvrzenich, ze tyto technologie se neujmou, nebo to bude trvat 10 let.
            Stejne tak DLSS a podobne technologie muzou vyrazne pomoci mensim financne oriantovanym produktum, jako jsou konzole, kde je hlavni parametr cena, ale zaroven je treba nezaostavat za PC.
            Ale jak uz jsem tu parkrat zminoval, kamen urazu je cena RTX, ktera prijde velke skupine lidi jako premrstena. Ciste teoreticky, kdyby Nvidia vydala RTX radu za cenu stavajicich GTX, tak by proti RTX mohl argumentovat jen opravdu hloupy a fanaticky clovek. Protoze ale cena RTX je vyrazne vyssi, tak se vedou spory o to, zda-li je ta pridana hodnota v RTX vuci cene ospravedlnitelna. Pro spoustu lidi neni, proi jine je.

      • Kvôli tebe som si toho zaklínača zapol teraz tiež a vyskúšal pár nastavení. V 2K v prvej dedine s Hairworks on som bol okolo 60 FPS stále. Klesol som niekedy na 55, čo bolo najhoršie. Samozrejme keď sa dočítava časť mapy, tak FPS poklesne aj nižšie bez ohľadu na to, či je Hairworks on alebo off. Musel si teda strašne trpieť. 🙂 V 4K som mal s Hairwoks Off okolo 43 FPS a s Hairworks On minimum 35 FPS. “Brutálny” pokles FPS v 4K, ktorý mi asi mal zničiť zážitok z hry. Takže sa priznaj Redmarx. Je Hairworks jediná fíčura, ktorú musíš v hrách vypínať a kvôli ktorej nemáš stabilných 60 FPS? Z mojich skúseností je na to potrebné doladenie nastavení viac hier, aby museli spĺňať takúto špecifickú potrebu. Všetky tie fíčury, ktoré musíš vypnúť alebo zmierniť sú podľa teba tiež zbytočné? Alebo je to len Hairworks? Čo keby si prestal konečne troliť?

        • Souhlas. Ja hlavne uplne nechapu, proc kazdy cili na 60 FPS. Krome strilecek a zvlastepak ve hrach jako Witcher 3 je to se syncem prece uplne do nejakych 30 FPS v pohode. Opravdu nechapu, proc bych mel u Witchera plakat, ze mam jen 40 FPS a ne 120. Pro me je grafika hodne podstatna, ale pokud bych mel resit, ze nejaka hra je “nehratelna” kvuli Hairworks, tak ta hra by sla rovnou z disku, kvuli nudnemu obsahu a hratelnosti.
          Strilecky v multiplayeru jsou samozrejme jina pohadka, ale tam se snizuji napr. i efekty kvuli “viditelnosti” nepritele – takze nejake Hairworks by me tam absolutne nezajimalo, zvlaste pak kdyz mirim na ten pixel, co se prave pohnul, aby me nedostal driv, nez ja jeho 😉

  3. Gratuluji Maudite,opět jsi dostál své pověsti a jako směsný čert z krabičky jsi opět bodoval….Chápu že někdo ti sahnul na tvoji modlu.Ale ono to není ani tak vtipné jako tragické.
    Ono se dá pochopit že nVidia se snaží marketingově okecat svoje selhání kolem RT.Tedy oni se už ani moc nesnaží a raději uvádí i nové karty bez RT.Ono jestli a (to je ta obrovská otázka) se RT někdy masově rozšíří,tak to nebude příští rok a ani pravděpodoně další ale rozšíří se v momentě kdy RT utáhnou karty kolem 200-300$.No a potom tu máme obrovský trh s konzoli kde nemůže nVidia nic nabídnout…A ne,starý chcípák jménem Tegra se nepočítá.
    Vtipné je že drtivá většina majitelů karet od nVidie si RT stejně neužijí prostě proto že koupí mnohem levnější model.Když se podívám na Steam tak stejně skoro všichni koupí max tu RX1160,ale mnohem pravděpodobněji 1050…
    Takže prosím přestaň donekonečna šířit BLUD že RT cokoliv na trhu ovlivní.Stejně tak jak AMD trpí že nemá verzi RT jednotky na svých kartách…To je asi poslední co AMD trápí.Ono když se člověk podívá na tragikomedii kolem dvojkových karet nV,tak se nedá nevzpomenout na podobný fall s FX řadou a zcela pohřbenou příležitost s PhysX a ,,revoluční,, fyziky ve hrách. V té době to také vypadalo na revoluci (alespoň podle nV.):) a v reálu se počet her kdy PhysX bylo výrazným přínosem se v pohodě spočítá na prstech…Smutné co?

    • Selhání to přece není.

      A v těch levnějších kartách RTX daleko spíš není čistě proto, aby se zákazník přitlačil ke koupení těch vyšších, než že by rezignovali nebo tak něco. Tj. tzv. segmentace trhu… A potom taky proto, že to potřebuje větší výkon, takže v levnějších kartách by to už asi opravdu nemělo smysl.
      To GPU bylo z velké části připravené ještě než vůbec RTX 2080/2080 Ti přišlo na trh, takže těžko čekat, že by nějak reagovalo na přijetí/ohlas.

        • To by nedávalo smysl – xx50 karty jsou obecně rády, že nové náročné hry dávají na FullHD a cca. medium detaily při hratelných fps. Takže tam pak mají lidé vypnutých i spoustu standardních efektů včetně stínů a odrazů a lepšího AA. Tzn. v tomto segmentu je více než kde jinde tlak na co nejvyšší základní výkon při co nejnižší cenně.
          Aby tam ještě dávali větší poměr RT + Tensor cores než do hi-end karet, to by asi nebyla cenově vhodná karta, pro lidi, kteří za grafiku nedají ani 5 tisíc. 😀 Nic ve zlém, ale to je vážně ujetá představa.

          Do takových karet by RT mohl přijít až, když by ve většině vydávaných her byl velmi široce používaný a blížily se i hry, které by bez RT ani nešly hrát – ale to se bavíme vyloženě o budoucnosti, těžko říct jak vzdálené, každopádně víc jak třeba další 2 generace grafik.

            • Maudit: Dobre, tak rekneme, ciste teoreticky, ze mame cip, ktery zvlada FullHD pri 60 FPS na high, ale neobsahuje RT cores. Nebo muzeme mit cip o stejne velikosti, ktery zvlada FullHD pri 60 FPS jen na medium, ale ma i RT cores -> takze co mame udelat, abychom dostali high detaily? Zapnout ve hre RT?
              Pri prepokladanem oklesteni a nizsi cene pripadneho “2050” cipu mi RT cores smysl nedavaji (prikon a vyzarene teplo, zakladni vykon cipu, velikost a propustnost pameti).

            • To je argumentacni klam – falesne dilema. Je mbohem vic moznosti, nez ktery takhle trapne prezentujes.

              Nvidia muze vyuzit zmenseni procesu k pridani RT cores nebo muze byt cip o neco vetsi, nez byl v minule generaci, atd. – moznosti je dost.

            • Maudit 24.12.2018 at 15:53
              Dobre zase bez o odpovedi, jak je u vas zvykem, zato urazky.
              Tak ja to zkusim vysvetlit jeste jednou ciste pro Maudita – rec byla o RT cores v 2050 (jestli nejaka bude). Vy jste tvrdil, ze tam RT cores davaji smysl, ostatni tu tvrdili, ze prave tam to smysl nedava.
              Muzete teda vysvetlit, proc si myslite, ze v nasledniku karty GTX 1050, ktera dnes dava FullHD na medium detaily pri cca 60 FPS by mel obsahovat RT cores, kdyz se da vzhledem k Nvidia portfoliu ocekavat, ze bude vykonem pod RTX 2060? Tedy, jestli nejaka ?TX 2050 vubec bude.
              Prosim o nejaka fakta a ne blabol typu “uz brzy ma vyjit Metro Exodus a to teprve uvidite”. Diky.

            • Vsechno je samozrejme uz v predchozich postech, ale dobre, pro ty pomalejsi ..

              Kdyz budeme uvazovat dost konzervativni posun o 30% procent ciste v rasterizaci, tak 2050/2050ti by mely byt schopne zvladat fullhd v pohode. Pak staci pridat nejaka RT cores a je to v klidu. Jen ta RT cores budou mozna muset byt v jinem pomeru, nez u predchozich karet, protoze tam uz by to mohl byt bottleneck. Ale treba se pletu. Dalsi moznost je jak tvrdi Jan Olsan segmentace trhu, neboli pokud RTX 2050/2050ti nebudou, bude to spis s obchodnich duvodu, nez z technickych.

            • Maudite
              Alich se Ti tu byť marně snaží vysvětlit, že zapnutí RT sráží celkový výkon… Už na 2060RTX jsem zvědavý jak to bude zvládat… 2050 by měla ještě méně RT výpočetních jednotek… Čili i kdyby to mělo výkon 1060/580, tak po zapnutí RT by to bylo použitelné tak na 720p… Leda, že by to mnělo více RT jednotek… což nebude…

            • KOCHREN 24.12.2018 at 18:54
              Tak nejak, dekuji.
              Samozrejme nevime, co v tom cipu bude, ci nebude a jestli vubec bude. Mne, pri stavajicim vykonu 1050 (a Ti) to moc smysl nedava, ale nevim vsechno, proto se tu ptam lidi, kteri maji dost jasno – jako napr. pan Maudit. Misto toho jsem dostal neurcite odpovedi jako “mel by” a “v pohode” a jeste “pro ty pomalejsi” 😉
              Takze to vidim tak, ze Maudit vi stejne prd jako ja, jen ma mnohem vice jasno v tom, co urcite bude a jeste nevaha neurvale komunikovat.

              Maudit, uz na vas nehodlam reagovat, protoze ty neustale demagogie, lzi, nesmysly a urazky, co tu sirite jsou hodne smutne a nevedou nikam. Diskuze s vami je proste o …… Hezke Vanoce.

    • PhysX byla vyborna technologie pro fyziku ve hrach a neuspalo to proto, ze to podporovaly jen karty od NVidie. Vyrobcum se to kvuli teto omezenosti nechtelo implementovat a ti, kdoz to do her dali, obvykle dostali od NVidie fianancni pobidku. Skoda, ze NVidia svym nekompetentnim jednanim PhysX pohrbila, mela by to byt pro vsechny vystraha, aby se to uz nikdy neopakovalo.

      Raytracing je naopak soucasti DirectX, takze tam to bude vyuzitelne pro vsechny. Problem je preci uplne jinde, nikdo ani NVidie nema dostatecne vykonne grafiky, aby raytracing byly schopne zpracovat. Kupovat si teda grafiku rady RTX 2000 postrada smysl pro vsechny hrace, kteri maji doma QuadHD nebo UltraHD monitory, na nichz RTX nefunguje. Uz tenhle fakt zcela demotivuje vyvojare her a raytracing upadne na nejakou dobu do zapomneni.

      • “PhysX byla vyborna technologie pro fyziku ve hrach a neuspalo to proto, ze to podporovaly jen karty od NVidie.”

        PhysX nie je iba GPU PhysX. Prečo to stále ignoruješ? A nielen ty? Čo sa týka GPU varianty vôbec nebol problém v tom, že to išlo iba na GPU od NV. Zober si taký open source Bullet, ktorý bol postavený na OpenCL. Prečo sa podľa teba nepoužíval keď bežal na kartách od Nv aj od AMD. Vôbec to nie je také jednoduché.

        “Kupovat si teda grafiku rady RTX 2000 postrada smysl pro vsechny hrace, kteri maji doma QuadHD nebo UltraHD monitory, na nichz RTX nefunguje.”

        Čo je toto za blbosť? To akože keď si dám vyššie rozlišenie ako FHD, tak si nebudem môcť RTX zapnúť pretože na týchto rozlíšeniach nefunguje? Tvojich vysnívaných 60 FPS v 2K odrazu nestačí? RTX 2080 Ti toto dáva s RTX na ultra v BF V a RTX 2080 to dáva tiež s RTX na medium. To akože znamená, že to tie karty nezvládajú?

      • No kdyz vidim vas DDWorld mentaly, tak se vazne musim smat. PhysX je uz nejakou dobu soucasti GameWorks, vy chytraci. Pouziva ho opravdu dost her. I ceska Arma 3 nebo Kingdom Come: Deliverance. Enginy jako Crytek, UE, Frostbite a Unity – ty vsechny GameWorks vyuzivaji. Tak jakej neuspech? 😁 Mozna ve Stachovo a Souckovo imaginarnim svete, ve kterym se oddavate tem vasim AMD orgiim.

        Btw, PhysX je od verze 4.0 open-source 😊

        • Kingdom Come: Deliverance
          ARMA3 je letita hra.

          Byly by i nejake dalsi? Jako majitele GTX1080 me docela zajima, jestli jeste u nejake soucasne hry, kterou se chystam hrat PhysX potkam nebo uz jen to KCD?

          (dik)

          • Tvoje neschopnost pochopit psanej text je az zarazejici (jeste horsi, nez u prumernyho AMD fanouska. PhysX je soucasti GameWorks. GameWorks je ve vsech velkych enginech. Je dost pravdepodobne, ze ve vetsi ci mensi mire bude PhysX vyuzity u vetsiny z her, postavenych na tech enginech.

            A fakt neverim, ze by si mel GTX1080. Na to ses moc AMD ultras. Myslim, ze od leta ti neveri nikdo (ani ostatni AMD fans, i kdyz sem urcite napisou, ze jo). 100% mas Vegu, jeste s podpisem Koduriho, ted uz vyskrabanym a prelepenym fotkou Lisy Su 😁

            • “PhysX je soucasti GameWorks. GameWorks je ve vsech velkych enginech. Je dost pravdepodobne, ze ve vetsi ci mensi mire bude PhysX vyuzity u vetsiny z her, postavenych na tech enginech.” .. aha 😀 to by jsi tu mohl taky udat nejaky zdroj a ne jen svoji fantazii..
              Budulinku, to ze je nejaky framework nebo engine obecne podporuje nejakou featurku (jako napr sadu toolu Gameworks) jeste neznamena, ze je v konkretni hre, ktera dany herni engine pouziva, budes vyuzivat.
              Mozna by jsi mel druhe mene nalepkovat a radeji se podivat na sebe do zrcadla…

            • abych tady nefantazmagoroval jao ty, tak tady je zdroj, ktery potvrzuje co jsem napsal vyse mauditku…
              “NVIDIA’s PhysX is a scalable multi-platform game physics solution, that has been used in many of today’s popular games. In addition to the native physics engine of CRYENGINE (CryPhysics), this feature allow CRYENGINE users to use the Nvidia’s third party physics engine (PhysX) as an external physics engine within the CRYENGINE.”
              https://docs.cryengine.com/display/CEMANUAL/NVIDIA+PhysX

              Tudiz tvoje tvrzeni o tom, ze kdyz je neco soucasti neceho, ze to bude i “vyuzito” je usmevne, potazmo lzive.

            • .. a protoze neumis anglicky, tak ti tu prelozim jedno dulezite slovni spojeni “In addition to the native physics engine”..coz znamena neco jako “Dodatecne (volitelne) k nativnimu fyzikalnimu enginu”..
              A kdyz jsi tady budulinku uz zminil ten Cryengine, tak tech her, ktere vyuzivaji jeho nativni fyzikalni engine bude mozna i vic, nez her ktere vyuzivaji PhysX dohromady…

            • @tombomino: V Cryengine je iba ako third party rozšírenie. PhysX je ale natívnou súčasťou Unreal Engine aj Unity.

              https://docs.unrealengine.com/en-us/Engine/Physics

              “Unreal Engine 4 uses the PhysX 3.3 physics engine to drive its physical simulation calculations and perform all collision calculations. PhysX provides the ability to perform accurate collision detection as well as simulate physical interactions between objects within the world. Having physics in your game will help improve the immersion value of every scene, as it helps players believe that they are interacting with the scene and that the scene is responding back in some way or another.”

              https://blogs.unity3d.com/2018/11/12/physics-changes-in-unity-2018-3-beta/

              “PhysX 3.4 represents several years of progress in the area of computational physics. We used to wait for a year or so to let the new version of PhysX mature, before shipping it in Unity. This time around we’re shipping the latest one, after having put as much effort into testing as possible.”

              Hry postavené na týchto engine-och využívajú PhysX ako fyzikálne API a je ich hodne. A to sa týka nielen hier pre PC ale aj na konzole.

            • Marku, na strankach NV je jich vylistovanych 41.. mozna jsem to spatne spocital, mozna ten seznam neni konecny, ale tech her fakt neni nejak moc, vzhledem k dobe, jak dlouho je PhysX na trhu.
              Komercne videno (ne technicky) PhysX pro NV asi moc uspesny neni…

            • @tombomino: Ten zoznam na NV stránkach nie je celý zoznam hier s PhysX ale iba zoznam hier s GPU PhysX. Koľko hier využíva akcelerovaný Havok cez GPU? Je ich 0. Znamená to, že je Havok komerčne neúspešný? NV nikde na stránkach nevedie plný zoznam hier s PhysX.

            • @tombomino:

              Prečítaj si ešte raz túto stránku, o ktorej sme už raz bavili:

              http://www.codercorner.com/blog/?m=201808

              “When your character does not fall through the ground in Fortnite, it’s PhysX. When you shoot a bullet in PayDay 2, it’s PhysX. Ragdolls? Vehicles? AI? PhysX does all that in a lot of games. It is used everywhere and it is not going away.”

              Keď si pozrieš ten zoznam hier u NV, je tam uvedený Payday 2 či Fortnite? A vidím inak, že NV v tom zozname má aj niektoré veľké hry ako Witcher 3, ktoré GPU PhysX nevyužívajú. Takže je to zrejme taký mix a idú podľa mňa sami proti sebe, že ten zoznam neudržiavajú ako tak aktuálny.

            • LOL tombomino, tombomino .. spocitej hry s podporou GameWorks. PhysX uz se davno neuvadi jako samostatna komponenta. A treba KC:D vyuziva GameWorks, dokonce na nej cekali, az bude implementovany:

              “Support for Nvidia Gameworks is in the pipeline. We work closely with the team from Crytek, so we what CryEngine is capable of. As soon the Gameworks are implemented, we will have them too. Our programmers have already taken a look at it and we are looking forward to use that.”
              https://gamingbolt.com/kingdom-come-deliverance-tech-interview-ps4xbox-one-optimization-gameworks-and-more

              Blby co? Realne se GameWorks pouziva v tech nejvetsich enginech, ale AMD denial masina jede na plny obratky a pro ne je to “neuspesna technologie” 😀 😀 😀 😀

              Nekdy si rikam, ze tohle vase ohybani reality nedelate ani tak kvuli “tem ostatnim”, ale spis kvuli sobe, aby se vam nerozpad vas hodnotovej system tak uzce postavenej na “AMD is the best” 😀 Mozna by sme do vas nemeli jit tak tvrde, aby ste si jeste neublizili 😀

            • Hele mauditi trubko.. za prve, ty jsi tvrdil neco o tom, ze se PhysX pouziva v CryEngine. Pravda je takova, ze je to volitelna komponenta. Tudis tvoje tvrzeni je lez, jako ostatne vetsina tvojich prispevku.
              PhysX je soucasti Gameworks, nicmene to nic nezmanema, Opet lzes, protoze z Gameworks muzes pouzit lidne jen jednu technoligii, ostatni pouzivat nemusis., stejne jako nemusis pozuivat PhysX.
              V jedne veci jsem se spletl, myslel, jsem ze PhysX je pouzivana jako graficka fyzkika. Pravda je opacna, ze je pouzivana hlavne jako CPU fyzika a tam je rozsirena.
              Takze byt tebou vezmu si zase prasky a vratim se zpatky do Bohnic, nez te zacnou hledat..
              A

          • CPU PhysX je vo veľa súčasných hrách. Písal som to už aj predtým, ale ty máš svoju vieru, ktorej sa držíš a je úplne jedno kto ti čo napíše. Budeš stále mlieť svoje blbosti. GPU PhysX zasa bude v Metre Exodus. To je asi jediné čo ťa môže s GTX 1080 zaujímať, pretože ten iba ten bude akcelerovaný grafickou kartou. Ak sa v KCD používa PhysX, tak len CPU a tam je jedno akú grafuckú kartu máš. Dokážeš chápať aspoň túto základnú vec?

            • Podle stranek NV zase PhysX tak moc rozsireny neni…
              https://www.geforce.com/hardware/technology/physx/games
              Nevim, jetli je ten seznam udrzovany, ale napocital jsem 41 her, z toho je docela dost i nekolik dilu jednoho franchise jako je napr. Batman saga, nebo Metro saga.
              Ja proti PhysX nic nemam (teda vyjma kecu, ktere tady pousti demagog Maudit), ale vzhledem k celkovemu poctu hernich titulu, asi budou jineh phys. enginy minimalne stejne uspesne nebo i uspesnejsi.

            • Treba Havok udava una svych strankach pres 500 titulu.. tech 41 u PhysX vs 500 Havoku, mluvi celkem jasnou reci 🙂

            • Na stránkach NV sú uvedené iba hry, ktoré využívajú GPU PhysX. Havok ako CPU riešenie by som porovnával iba s CPU PhysX (keďže hier akcelerujúcich Havok cez GPU je 0 a tam by potom toto pomyslené skóre bolo 41:0 pre PhysX :-)). Hier, ktoré využívajú CPU PhysX bude obdobne ako tých s Havokom. A ako som napísal vyššie, skoro všetky hry postavené na Unreal Engine či Unity používajú PhysX, pretože ten je natívnou (nie iba doplnkovou) súčasťou týchto herných engine-ov.

              Môžeš si napríklad pozrieť dosť veľký zoznam PhysX hier na

              http://physxinfo.com/

              Ten je ale tiež aktuálny iba k januáru 2017. Implicitne je na tej stránke zobrazený opäť zoznam GPU PhysX hier, ale vieš si to v hlavičke tabuľkky prepnúť na zoznam tých, ktoré používajú CPU PhysX. A už vtedy ich bolo dosť.

            • Tak to jem nevedel, diky za info. To uz vypada jinak. OK, takze PhysX je rozsireny hlavne jako CPU fyzika.

            • @tombomino: JJ. Presne. NV marketingovo tlačila iba GPU PhysX a prezentovali to iba ako PhysX. Tak si veľa ludí doteraz myslí, že PhysX hry sú iba tie, ktoré boli súčasťou tohto marketingu. PhysX je ale plnohodnotné fyzikálne API, ktoré sa naozaj používa vo veľkom. Len to už teraz tak nie je vidieť.

            • Marku, vcera jsem koupil Kingdom deliverance pro PS4 Pro.. Porad mi vrta havou, jak s tim “slabym” HW jsou schopni utahnou takovou grafiku a komplexitu hry :))

            • Off topic: Jinak jsem se dival jeste na nejaka srovnavaci videa PS4 Pro vs XOX 1 pro Red Dead Red 2.. ako XOX 1 ma lepsi textury, potazmo, ostrejsi obraz nez PS4 Pro.

            • XOX je myslím až o 30% výkonnejší než PS4 Pro. To sa musí nejak prejaviť. Som zvedavý kam laťku posunie PS5.

              Inak PS4 Pro nie je úplne slabý po HW stránke. Má 8 jadro, 8GB rýchlej zdieľanej pamäte a jej GPU časť má myslím okolo 2300 stream procesorov. Výhodou konzolí je ale to, že sa na nich hry programujú na železo. Tam sa používa niečo ako low level API zrejme od počiatku. Čo je ale logické. Keď máš zariadnie, ktorého HW je jednotný, tak to môžeš takto využiť. Takže sa z toho HW dokáže vytiahnuť viac ako na obdobnom HW na PC.

              Inak Red Dead Redemption 2 a Kingdom Come si časom kúpim určite tiež. Ale musím dohrať to, čo mám teraz a to je ešte na dlho. 🙂 Niekedy sa ale kochám nad tým, čo dokázali vytiahnuť v Horizon Zero Down. Je sice vidieť, že na 4K na PC to nemá. Ale je to viac ako obstojné vzhľadom na cenu.
              Ja som si teraz na 10E kúpil Until Down a v zbierke mám kompletnú sériu Uncharted a tiež kompletné edície Tom Raider hier z poslednej série. Okrem posledne vydanej. Tú kúpim až keď bude tiež kompletná. A inak ak si nehral ešte Last of Us, tak to silne odporúčam. Parádna príbehová hra ktorá sa aj výborne hrá.

            • “Podle stranek NV zase PhysX tak moc rozsireny neni…”

              Tak jeste jednou pro tvou omezenou mysl – PhysX uz se neuvadi samostatne, protoze je soucasti GameWorks 😉

            • ja nevim Madite.. ja chapu, ze mas IQ tykve.. …ale to, ze je neco vylistovane na strankach NV a obsahuje ani ne 10% vsech instatnci, je spis problem tech stranek, potazmo firmy. Prima spojitost mezi gameworks tam nebude.

    • ” a v reálu se počet her kdy PhysX bylo výrazným přínosem se v pohodě spočítá na prstech”

      Vieš vôbec na čo sa PhysX v hrách používa? Nebol to iba marektingovo pretláčaný GPU PhysX, ale aj jeho CPU verzia, ktorá sa hojne poiužíva aj dnes. Schválne si pozri ake fyzikálne API používa väčšina hier postavených na Unreal Engine alebo Unity.
      Tie hovadiny okolo RT, čo si popísal, ani komentovať nebudem. Pre teba by to bol fail vždy. Niečo by si si na to ako argument vymyslel.

        • To bohužiaľ nemá. PhysX má v hrách úplne rovnaký prínos ako Havok či iné fyzikálne API. A hier využívajúcich PhysX je dosť veľké množstvo. Vy sa zameriavate iba na GPU PhysX, ale ten je iba malou podmonožinou toho, čo PhysX ako celok dokáže. Takže Redmarx proste klame, aj keď zrejme verí tomu čo píše. Ale predpokladám, že sa chceme baviť o faktoch a nie to tom, kto má silenjšiu vieru v niečo, o čom nič nevie.

            • Ono je to s tou fyzikou v hrách celkom zložité a nie úplne tak ako si niektorí ludia predstavujú. A teraz nemyslím implementačne, pretože do toho nevidím. Hovorím o presadení lepšej fyziky do hier. Doteraz čítam názory o tom, ako NVIDIA pochovala možnosť dobrej fyziky v hrách pretože obmedzila PhysX iba na jej GPU. Keď si ale zoberieš aký to bol veľký skok oproti tomu, keď na to bolo treba samostatný akcelerátor od AGEIA, tak sa možnosti GPU akcelerovanej fyziky dostali k oveľa väčšej komunite hráčov. A aj tak musela NV dotovať nasadenie PhysXu v hrách. Zabúda sa ešte aj na to, že vývojári mali možnosť používať aj GPU akcelerovanú open source fyziku v podobe Bulletu, ktorá bola implementovaná v OpenCL. A nikto po tom neskočil. NVIDIA tiež časom niektoré časti GPU PhysXu označila za “deprecated” a nanovo ich prepracovala v rámci nového API, ktoré nazvala Flex. To je samostatné API, ktoré je postavené mimo PhysX a jeho výhodou je to, že je efektívnejšie ako predchádzajúce riešenie a aj to, že okrem akcelerácie cez CUDA podporuje aj akceleráciu cez DirectCompute a teda je možné ho akcelerovať aj na AMD grafikách. NVIDIA samozrejme tlačí do hier hlavne verziu s CUDA implementáciou, ale vývojári majú opäť na výber aj DC časť a opäť to nikto samovoľne nevyužíva. Zasa sa Flex objavuje iba tam, kde to NV podporí. Mne to príde tak, že samotní vývojáriu nemajú z komerčného hladiska záujem o pokročilú fyziku v hrách a že problém je hlavne v tomto. Pretože možnosti za posledných 10 rokov mali a zatiaľ ich nevyužili.