Radeony RX Vega budou tři. Top model má prý vzduchovou a vodní verzi s TDP až 375 W

75
Architektura Vega

Po nějaké době ticha se tento týden opět začala hýbat situace na frontě drbů o připravovaném Radeonu s čipem Vega 10 – respektive tedy jeho herní verze RX Vega, jelikož poloprofesionální model Frontier Edition už byl vydán, i když možná s vodu kalícími ovladači. Včera se totiž vynořily zprávy o tom, jaké verze budou začátkem srpna nebo koncem července odhaleny a další věci.

Nejzásadnější je patrně první informace, kterou má údajně z vlastních zdrojů potvrzenou web VideoCardz, i když nejdřív se objevila na méně spolehlivém 3DCenter. Jde o první potvrzení toho, jaké modely budou vydány. Podle této zprávy budou Radeony RX Vega tři – s kódovými označeními RX Vega XL (XL bylo kdysi v době DX9 řady X800 označení jednoho nižšího modelu), RX Vega XT (highend) a RX Vega XTX (což bylo označení přidané později k odlišení ještě vyššího modelu než XT).

Podle VideoCardz je konfigurace XL ořezaná a to na 3584 stream procesorů, což odpovídá očekáváním. Kapacita paměti není známá, ale dalo by se čekat 8 GB HBM2. Tato osekaná Vega má zřejmě být vyráběna jen v podobě nereferenčních karet a chlazená bude vzduchově. TDP je prý stanoveno na 285 W, přičemž 220 W spotřebuje samotné GPU, zbytek napájení a paměti (případně RGB LED…). Tato informace je ale od 3DCenter, takže nevím, jak dobře je potvrzená.

Vega 10 na PCB karty Frontier Edition (Zdroj: PC Perspective)
Vega 10 na PCB karty Frontier Edition (Zdroj: PC Perspective)

Jak model XT, tak XTX jsou údajně plně aktivní konfigurace čipu s 4096 stream procesory a také prý vždy s 8 GB HBM2, 16GB paměť tedy zůstane výsadou Frontier Editionu. Rozdíl bude v tom, že XTX má vyšší TDP a vodní chladič – údajně bude brát až 375 W pro celou kartu a 300 W pro GPU samotné. V tomto by se tedy asi podobala 375W vodní verzi Frontier Edition (pokud někdo jen nespekuluje). Naproti tomu Radeon RX Vega „XT“ má snad mít stejnou spotřebu jako model XL a mít vzduchový chladič. Patrně by asi tedy mohl mít podobné provozní takty (někde nad 1400 MHz) jako vzduchový Frontier Edition, byť nereferenční karty přetaktované z továrny mohou asi jít o něco výš. Vodní verze by díky vyššímu TDP asi měla běžet na taktech vyšších, snad blíž udávanému maximálnímu turbu 1600 MHz.

Papírové uvedení, nebo ne?

Kromě tohoto kousku se objevil ještě údajný harmonogram příprav uvedení Radeonu (nebo Radeonů) RX Vega, opět z webu 3DCenter. Podle těchto údajů prý byly specifikace finalizovány během června a během července mají být karty testovány a ověřeny. Zdrojový kód finálního BIOSu karty má údajně být dostupný 2. srpna, takže reálná výroba by mohla běžet až poté. Toto by asi znamenalo, že odhalení na Siggraphu 30. července by muselo být papírové bez reálné dostupnosti. Těžko ale říct, jak moc jsou tyto informace důvěryhodné. Toto by teoreticky mohlo platit třeba jen pro nereferenční karty, nebo pro onen ořezaný model XL, jenž má mít jen nereferenční verze – a tedy pro něj výrobci potřebují kód BIOSu, aby ho mohli upravit. Referenční RX Vega by teoreticky mohly být dostupné dříve, i když sázet se na to asi také nedá.

Údajný harmonogram příprav Radeonu RX Vega, dle 3DCenter (zdroj: techPowerUp)
Údajný harmonogram příprav Radeonu RX Vega, dle 3DCenter (zdroj: techPowerUp)

Ještě předtím má AMD přes výše uvedené Radeon RX Vega veřejně předvádět – což je pro změnu oficiální informace. Před odhalením na Siggraphu 30. července se totiž uspořádá malé „turné“. 18. července má proběhnout nějaká demonstrace v Budapešti, jejíž součástí asi bude předváděčka naživo. 21. až 23. července by pak zase mělo demo být k vidění v americkém Portlandu. Třetí ukázka bude pak na na Siggraphu již při onom finálním odhalení. Co všechno bude na těchto akcích k vidění, zatím nevíme. Hardware by zřejmě měl být k vidění, ale těžko říct, zda už půjde o sériové karty, což by rozptýlilo obavy z papírového uvedení vyplývající z minulého odstavce. AMD by totiž mohlo použít i karty Frontier Edition s přeflashovaným beta BIOSem. Brzo už ale snad bude jasněji, přesnější údaje o plánech na uvedení nejspíš uniknou předem.

Ohodnoťte tento článek!

75 KOMENTÁŘE

  1. No čekal jsem (čekám ) na Vegu ale podle toho co pomalu leze na věřejnost tak se dost obávám o její výkon no ještě měsíc a snad budeme konečně chytřejší jinak se obávám že budu muset po několika letech přejít k nVidii a to se mi moc nechce.

  2. To bude průser… Jestli s tím 375 W monstrem nezadupou nereferenční 1080 Ti do země, tak nevidím pro AMD grafickou divizi dobré časy a stejně, jestli to ten výkon mít bude, tak cena musí jít níž než u Nvidie a kolik na tom pak můžou vydělat?

    375 W monstrum to jsem teda nečekal, to už je šílený topení, když to porovnám třeba s nereferenční ASUS ROG STRIX GTX 1080 Ti GAMING OC, která boostuje na +/- 1930 MHz se základním TDP 275 W (při zvednutí power limitu a přetaktování 330 W, omezeno biosem), tak je to šílené…

    Můj odhad je, že AMD musí tu kartu hnát na maximum co to jde, jen aby z toho vyždímali každé procento výkonu, aby se těm 1080 Ti vůbec přiblížili, jinak si to nedovedu vysvětlit.

    • Mě ta karta hlavně nedává smysl – zvedat spotřebu o 100 W kvůli nějakým +/- 10-15% výkonu. Asi se chce AMD za každou cenu výkonem přiblížit 1080Ti, dle mého si tou snahou spíše AMD jen ublíží.
      Jak už bylo jinde napsáno. Vega vznikala v době, kdy měla konkurovat 1080, ale vývoj se protáhnul a teď chtě nechtě musí čelit i neplánovaně 1080Ti na což prostě nemá dostatek hrubé síly.

      • Jinak když už Vega osobně bych vzal XT a o nějakých 100MHz podtaktoval a spotřeba by se určitě snížila někam k 200W – je to krásně vidět na RX480 – RX580 kde nějakých 100MHz navíc nad 1300MHz stoupne spotřeba klidně o 50-100W.
        Prostě je to již neekonomické hnát tyto čipy na tak vysoké frekvence.

          • jistě.. lžu… akorát mě zajímá kolik těch GTX1080 máš doma? Jakým způsobem monitoruješ spotřebu a jakým způsobem to kontroluješ?

            Osobně se spoléhám na HW monitor, odpovídající spotřebu reportuje zdroj (Corsair RM i řada + corsair commander link) a měřák spotřeby v zásuvce.

            V herní zátěži mívám spotřebu – na zdi – mezi 200-300W a GTX1080 velice často běží v rozmezí 80%-100% TDP, tedy nějakých 150-185W a nepřekračuje 110% TDP tedy něco jako 205W. V absolutně nejhorší situaci může ta karta brát 224W (121% TDP/power limitu).

            Například má předchozí karta – GTX980 po přetaktu, který, na rozdíl od 1080 byl nutný, běžela permanentně přes 100% TDP a velice často běžela na jeho hraně – bottomneck byl právě power limit – 200W. Upgrade na 1080 mi nejen přinesl velkou porci výkonu navíc ale průměrně nižší spotřebu.

            Takže prosím nějaký konkrétní příklad s důkazem že lžu by nebyl?

          • Komple, neřeš dynyda, na víc se dneska nezmůže … AMD mohla Vegy klidně prodávat dýl než rok s gddr5x pamětmi za ceny stejné jako 1080 a byla by dnes na tom mnohem lépe … kdo chce kam …

          • Nechci a nebudu se s tebou hádat. Píšeš sice hezké věci, ale zcela OT. Celá diskuse je o TDP, které:
            1. v případě GTX zahrnuje pouze čip
            2. není srovnatelné s běžnou zátěží při hraní (moje MSI RX480 Gaming X , ač přetočená, má typicky okolo 110W)
            3. označuje maximální možnou spotřebu, nezávisle na tom, jak dlouho tato spotřeba trvá (což může taky třeba několik desítek mikrosekund, což ti prakticky žádný měřák nezaznamená, pokud to není přesný laboratorní wattmetr)

            Takže: já chápu co chceš říct, ale nijak to nesouvisí. Ale aspoň ses pokusil argumentovat, narozdíl od Koka.

          • Aznohh :
            „komplik proč ti to jede na půl plyn“
            1: v Prepar3D je velká brzda CPU, není problém to nastavit tak aby to dávalo jen jednotky FPS, osobně se snažím jet lehce nad 30FPS. Ne vždy se to daří.
            2: záleží na situaci, jednu chvíli to běží na půl plynu, záhy na 100%. Záleží co se zrovna zobrazuje. Takové stíny 50-100 tísíc strůmů tomu dá docela pohulit, stejně jako poctívá volumetrická oblačnost, natož mlha.
            3: fotka neprezentuje maximální výkon, ani zminěnou spotřebu.

            „proč tak nízkej takt, když to máš na vodě“
            1: Protože Prepar3D je citlivý na overclock GPU, navíc to není potřeba. 30FPS grafika dává v poho pokud ji nebrzdí CPU.
            2: stabilní OC přidá tak 8% výkonu max = bezvýznamné i tam kde ten výkon potřebuji – 4k hraní v 60FPS, na to zatím nestačí ani 1080Ti.
            3: voda tam není kvůli taktování ale kvůli akustice.

            „nějak nemá smysl tu ukazovat kolik ti to žere, když je grafika vytížená jen na 70%“
            zbytečně se soustředíš na aktuální spotřebu, když si všimneš na stejném obrázku tak maximální spotřeba byla 108%, tedy cca těch 200W a největší zátěž byla 99%.

            Tady je příklad: https://www.youtube.com/watch?v=i_XeFq7qnX4 kdy ta grafika jede v podstatě celou dobu na plno a power je vesměs pořád do 80% – grafika měla ještě originál FE chladič, takže takty jsou díky teplotě nižší. Když se ta karta taktuje tak se její typická spotřeba posune lehce nad 100% TDP.

          • Crho donuta neřeš, bo přetočí tu svoji na 2Ghz při spotřebě 25 watt, pak ohňostroj a vůbec … těžko argumentovat ubožákovi, co vidí jen svou pravdu … argument typu „lžeš“ mluví za vše …

        • Podtaktovavat nejspise nebudes muset. Na PCG http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/2/#a5
          udelali undervolting z 1,2 na 1.075, a karta jim drzela boost na 1600Mhz pri zvusenem TDP +50%. Spotreba tim jim klesla i pri 1600Mhz boostu zpet na „tovarnich“ 250-280W. Vypada to skoro na stejny pripad, jako s 390, kdy napeti bylo vetsinou zbytecne preburene.
          Nicmene, pokud by ten vykon pri 1600Mhz s finalnima driverama sel nekde k 1080OC, tak by to uz tragoska spotreba nebyla. cca 50W nad 1080OC to je uz prijatelne.

      • Plně souhlasím, ty hrozné spotřeby už AMD dělají špatnou reputaci delší dobu a tohle by to mohlo dost dorazit.
        Vega před rokem, nebo ještě i v zimě, mohla být solidní konkurence k 1080, která měla tehdy vysokou cenovku, takže Vega mohla mít při stejném výkonu a případné spotřebě do 250W třeba o 20-30% nižší cenu a to už by bylo zaděláno na úspěch.

        Jenže Nvidia udělala asi konkurečně ideální tah s 1080Ti, která celkem nadchla a ještě přišla tak dlouho před Vegou, že ji tím dost odsoudila. Přesto, kdyby s ní teď tak neblbli zkrz takty a spotřebu, nemuselo být teď možná tak zle.

        • Cena o 20-30% pod 1080 není rozhodně úspěch. AMD samo tvrdi že v tomto segmentu je marže 66 a více procent. Spekuluje se že jen paměti vyjdou na 160 dolarů což by znamenalo že karta stojí cca 250USD. Aby na tom vydělali 2/3 ceny, kta by se musela prodávat za 750 dolarů. Jenže s výkonem pár procent nad 1080 nebude moc prodejná ani za 500, o tom nás přesvědčila historie – GTX970 vs R390

          • Gildor myslel tým úspechom asi predajnosť takej karty nie zisky z nej, presa len karta o výkone 1080ky za „Cena o 20-30% pod 1080“ teda niekde okolo 350-400USD by bola skara ponuka pre zákazníka ale ako píšeš, pri skoro 500mm2 jadre, HBM2 a tom INTERpozérovi by to zase pre AMD boli na ziskoch drobné…

          • Jo, myslel jsem tím, že by o takovou kartu byl zájem. To, že by na tom mělo AMD malou marži je jasné, ale pořád lepší jak teď, kdy tam stejně asi moc velká marže nebude a stejně to nebude konkurenceschopné (nebo velká marže bude za cenu úplné neprodejnosti 😀 ).

          • jasně za 400USD by to byl jistě zajímavý kauf, AMD by neprodělalo, ale AMD na tom taky plánuje vydělat pár miliard dolarů… investory masírovali 66+% marží z tohohle segmentu. Navíc je tu další věc, NV může začít cenovou válku. Pascaly jsou tu dlouho, v zásadě se zaplatily, výrobně je levnější, navíc za rohem Volta. Snížení cen by nejen více tlačilo AMD, ale postupně připravilo půdu na Voltu, která by mohla přijít za současné ceny Pascalu.

    • Pravděpodobné se mi zdá, z informací co jsou teď k dispozici, že ta vodní a nějaké hodně OC nerefernční verze se budou pohybovat mezi výkonem 1080 a 1080Ti, referenční vzduchová bude ráda, když v řádech procent půjde přes 1080 a ta ořezaná bude slabší jak 1080, tzn. fiasko.
      1080 má TDP 180W a jestli se Vega bude chovat jak Fiji karty, tak běžné vzduchové verze budou žrát kolem 300W a extrémní OC verze se budou více či méně blížit ke 400W, o nějakém Fullcover taktování radši nemluvit.

      • Současná Vega FE v testech běžela vždy k 300W, tzn využívala toho TBP na maximum. Jinak tomu nebude ani u VegaRX, čipy jsou stejné, TBP o něco nižší, což koresponduje s méně paměti a pravděpodobně nějaké malé featury, které pro RX nebudou aktivní.
        A OC verze.. záleží kam ten čip půjde ale troufám si tvrdit že už ho šponují dost na to aby šel nějak výrazně nataktovat. Takže drastický růst spotřeby u OC verzí nepředpokládám protože prostě to OC nebude možné.

        • Pises voloviny. Pokud bezela „v defaultu“ (bez max boostu a navyseni PT), tak se bezna spotreba pohybovala okolo 250W s max 280W. Viz napriklad mereni na PCG tady http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/2/#a5
          300W a vyse to slo, pri nastaveni PT +50% a boostu 1600Mhz. Nicmene, stejny zdroj udelal undervolting a zjistil, ze ten boost se da drzet i na tech 250+W.

          • A jak to ti kluci měřili? Německy fakt neumím a na obrázcích nevidím připojený žádný měřák.

            PC Perspective měří jednotlivé PCI-E kabely a slot. Průměrné spotřeby se pohybovaly mezi 280W až 300W dle testu. Testy pro recenzi dělali na stock kartě, prostě tak jak to domů člověk přinese, vybalí a zastrčí do kompu.

          • Merili to primo na 12V vetvi. viz citat:
            „..messen wir auf den 12-Volt-Versorgungskabeln“.
            Uvadeji pak ‚prumernou‘ spotrebu, ktera cinila cca 250W, protoze se spotreba pohybovala v zavislosti na teplotach a zatezi mezi 220-280W, kde 280W byly spicky. viz citat:
            „… luftgekühlten Version um die 250-Watt-Marke herum. Abhängig von der Temperatur und Last sind mal 220, mal Spitzenwerte auf bis zu 280 Watt zu verzeichnen.“

          • Vzhledem k tomu, ze do testu uz doplnili i ten undervolting, tak bych osobne bral mereni PCG jako smerodatnejsi. Nicmene, tyhle hodnoty jsou pro „defaultni“ nastaveni karty. To znamena, ze i takty se hybou nekde mezi 1348, 1440 Mhz, atd. Neni to v rezimu max „boostu“, kde to bezi se zvysenym PT.

  3. Mam nejake neoverene info, ze XL bude mit jen 4GB pameti.

    Osobne jsem hodne skepticky, XL bude konkurovat GTX1070, XT ~ GTX1080 a XTX ~ GTX1080Ti. Jenze vsechno je to -100W pro NVidii a to, ze by Vega byla vyrazne levnejsi to teda neverim.

    Hrozne bych rad, ale nedokazu si predstavit tu idealni situaci, ze by XL bylo nad GTX1080, XT nad GTX1080Ti a XTX by byl top produkt, na ktery by NVidia nemela odpoved. Bylo by to bombasticke, ale nevsadil bych na to ani petnik. :-/

    • Jak by mohla XTX konkurovat 1080Ti když XT by stačilo na 1080. Mezi těma kartama je propastný rozdíl. Nevím kde by ten čip sebral 35% výkonu navíc. Vodní chlazení jen sníží teploty oproti vzduchové verze, tím umožní kartě držet lepší frekvence, tzn. konzistentnější výkon. A pravděpodobně to bude i o něco více papat když to bude držet vyšší takty.

      Kdyby XT stačilo na 1080 a mělo takty 1600MHz, tak XTX by potřebovalo takty 2.1-2.2GHz aby si sáhlo na výkon 1080Ti za předpokladu že výkon škáluje rovnoměrně s taktem, ale z testu podtaktované VegaFE vs Fury bylo jasně vidět že výkon roste pomaleji než frekvence, navíc současná Vega FE má by default problém držet větší takty než 1440MHz

      • A uprimne, dokazes si predstavit situaci, ze bude XTX na urovni GTX1080, XT malinko pod a XL nekde okolo GTX1070. Kolik v takovem pripade bude stat Volta, jestli AMD nepredvede vubec nic a bude to trapas. To bych vazne nerad.

        • To ti můžu říct rovnou. Nvidia Voltu odloží min. o půl roku. 🙂 Nemá moc důvod ji vydávat,, když se stávající řada pořád dobře prodává. Stačí kouknout, co dělal celou dobu Intel.

        • Ať už ta situace nastane nebo ne, tak si myslím, že cena Volty by byla jako v případě Pascalů, tzn. GTX 2070 za cenu nynější GTX 1080 a GTX 2080 za cenu nynější 1080 Ti, později až by přišla GTX 2080 Ti, tak by se ceny posunuly o řadu níž, tak jak je to dnes.

        • Nebojím se o cenu volty. V NV chtějí taky jen vydělat a ví co si mohou dovolit. Kdyby tomu tak nebylo tak se tu dál mohla prodávat 1080 za 600 dolarů a 1080Ti mohla jít k 1000 dolarům, ejhle, i když není konkurence, tak sníží cenu 1080 a 1080Ti dají za velice přívětivou cenu.

          Konec konců stačí se podívat do historie… Ceny Pascalů při uvedení nijak nevybočovaly od obvyklých cen několika předešlých generací, trošku to zamotali s Founders Edicí, kdy pro AIB bylo výhodnější prodávat FE než vlastní verze, protože ty karty byl neskutečný pokrok ve výkonu, mělo to slušnou cenu i ve Founders Edici, tak proč prodávat kartu za 600, když můžu prodat za 700. Z toho se už ale v NV poučili.

  4. Môžeme len špekulovať, ale ak AMD ženie Vegu to takých TDP tak to asi vážne je čip ďaleko za svojím „sweet point“ z hľadiska spotreba/výkon a AMD to skutočne ženie na čo max. výkon aby znížili náskok 1080Ti.

    Príde mi nepredstaviteľné žeby ju tak hnali koli to tomu aby s rovnako výkonnej karty (v zmysle 1080Ti=Vega) spravili o 5-10% výkonnejšiu a vymenili 10% výkonu za 150W spotreby…

    • Ja bych si tim u graficke divize AMD nebyl az tak jisty 😀 bohuzel…
      Podle mne stacilo klidne vydat neco na urovni 1070+ a 1080 s „normalni“ spotrebou a to zpozdene uvedeni kompenzovat cenou. Stejne kolik lidi si 1080Ti koupi..

  5. Sry, ale nechápu jak furt všichni řeší tu spotřebu. Při rozdílu spotřeby cca 150 W (což ale méně mezi těmito grafikami) a 4 hod hraní v plné zátěži Gpu za 3Kč /1KWH to vychází 657 kč za rok provozu (cca 5% pořizovací ceny). Opravdu při koupi grafiky nad 12K je totální nesmysl řešit rozdíl spotřeby o cca 100-150W (krom extrému jako jsou težaři apod.) Jediné negativum muže být hlučnost karty , kde ale pokud jedu na cenu/výkon toto neřeším, nebo si koupím o něco málo drržžší grafu s lepším chladičem a pokud mi to ohromě vadí tak už mám v pc vodníka a grafika se na něj jen napojí.

        • Ještě jednou… generuje to teplo jako kráva… Mám 1080 sli. Vodník ti nepomůže (pokud ho nemáš vystrčenej z okna). To vygenerovaný teplo se neztratí.. doporučuju pročíst učebnici fyziky.

        • Jak pomůže vodní chlazení?

          Karta vygeneruje teplo – cca 300W. Teplo se přenese do žebrování a z něj ho větrák rozežene do okolního vzduchu.

          U vody karta opět vygeneruje teplo – cca 300W, To se přes vodní blok teplo přenese do kapaliny, ta převede teplo na žebrování výměníku a odtud to teplo větrák rozežene do okolního vzduchu.

          Výsledek? Teplo se dostává do okolí = okolí se ohřívá, rozdíl je jen v tom kde se to teplo rozptýlí a v tom jakou teplotu bude mít chlazená elektronika, ohřev vzduchu v místnosti bude stejný.

          Počítač mám pod stolem a zvláště v létě citím jak na mě to teplo z pod stolu jde a to se bavím o 300W na celou sestavu, ne jen na grafiku

          • Zapominas na jednu vec. Dulezitejsi nez teplo v ‚mistnosti‘ je teplo ve skrini. Dneska vsechny karty vyjma referencek metaj teplo zpatky do skrine. Podle toho jak mas udelany dobre airflow a jak mas tu kartu blizko k necemu, a kolik mas kolem ni mista, tak se bud to teplo stihne odvest nebo ne tim airflow. Pokud ne, chlazeni neni ucinne, teploty stoupaji..nastava throttling. Tohle by si s dobrym vodnikem a umistenim ve skrini dit nemel.

    • Máš to dobrý, taky bych chtěl kWh za 3Kč, reálně mě vychází něco nad 5. Při reálném rozdílu 100W mi to dělá asi 700 stovek ročně, 14 set za morální životnost karty (kupuji to s vidinou 2 let provozu, pak koupím výkonnější novou generaci). 14 stovek je třeba dobrá večeře v restauraci nebo jeden herní titul, který si můžu koupit navíc…

      Nicméně ano, v průběhu dvou let je to něco co je pod mou rozlišovací schopnost, ale při nákupu a zhodnocení který produkt je výhodnější s těmi 14 sty prostě počítat musíš.

      Hypoteticky… mám tu kartu za 15 tisíc 200W spotřeby, +- stejně výkonnou kartu za 12 tisíc a 300W spotřeby… Při dvou letech provozu 4h/denně a ceně 5kč/kWh je rozdíl ceny jen 16 set. Pak by ještě stálo také zvážit jak dlouho to pojede jen v desktopu, tady sice bude rozdíl jen cca 6-7W (Vega měla 16-17W, 1080 má 9W) ale může to být výrazně delší doba, ale při stejných 4h/den za ty dva roky bude finanční rozdíl o stovku menší, tedy 1500kč. Pokud to někdo plánuje na 4 roky, tak rozdíl ceny bude 0. Po delší době bude ta prvně dražší karta finančně výhodnější. Výhodnější bude i při intenzivnějším používání.