Konzole PlayStation 5 už údajně nemá mít APU, Sony chce prý použít samostatné GPU

36
Grafický čip RSX z PlayStation 3 (Foto: Voodooo83, Wikimedia Commons)

Není to ještě nějak dávno, co Sony uvedlo na trh upgradovanou verzi konzole PlayStation 4 nazvanou „Pro“. Přesto se už začínají objevovat různé klepy a zvěsti o jejím následníku úplně nové generace, který by se předpokládáme mohl jmenovat PlayStation 5. A vypadá to podle nich, že by tato konzole mohla udělat docela zásadní hardwarové změny proti dnešní koncepci přístrojů PS4 a PS4 Pro.

Podle webu NextPowerUp údajně Sony plánuje nebo aspoň zvažuje, že by opustila čipy APU – tedy integrovaný SoC obsahující jak grafický adaptér, tak procesor v jednom kusu křemíku. Místo toho by se prý mohla vrátit ke koncepci PlayStationu 3 a použít samostatné GPU. To by tedy bylo vyčleněné ve zvláštním čipu, připojeném přes PCI Express, nebo nějaké zvláštní proprietární rozhraní. Patrně by také takový grafický čip musel mít vlastní vyhrazenou paměť.

Nvidia?

Toto rozhodnutí by mohlo znamenat dvě věci. Pokud chce Sony opustit čipy APU, mohla by se teoreticky rovnou úplně zbavit i spolupráce s AMD. Ono samostatné GPU by tedy mohla dodat i Nvidia, která nedávno ulovila Nintendo Switch a o tržby navíc by asi zájem měla, byť se před lety tvářila, že jí tento byznys za námahu nestojí. Zároveň by se rozdělením obou komponent uvolnily ruce při výběru procesoru, který by mohla dodat řada firem – od Intelu až po nějaké licenční uživatele architektury ARM. Na druhou stranu opuštění APU nemusí hned znamenat změnu dodavatele, AMD by Sony mohlo přirozeně vyrábět i nějaké samostatné GPU, vyrobené na zakázku.

Čip GPU (Nvidia G80)
Čip GPU (Nvidia G80)

Konzole se samostatným GPU by ale asi byla dražší. Jednak by narostla celková nákupní cena GPU a CPU. Vedle toho by ale asi také bylo třeba zaplatit složitější PCB základní desky, včetně paměti navíc. U konzolí je přitom tak tlak na co nejnižší cenu, což tyto zprávy poněkud znedůvěryhodňuje. Nicméně pokud padlo rozhodnutí dodavatele změnit, možná musel tento faktor ustoupit.

NextPowerUp k těmto zvěstem uvádí, že integrace do jednoho čipu je faktor způsobující výkonnostní problémy, přičemž samostatné GPU by je dokázalo vyřešit. Je ale dost otázka, zda toto může být pravda. Za řadu problémů konzolí může spíš použité CPU (nízko taktovaná malá jádra Jaguar s relativně nízkým IPC) a kromě toho tato úvaha přehlíží problém spotřeby.

Ta je totiž v praxi významným limitem pro dosahovaný výkon – výrobci konzolí si kvůli chlazení a napájení nejspíš nedovolí TDP výrazně zvednout, takže v budoucnu zůstane stropem pro růst výkonu. A rozdělení procesoru a GPU do dvou částí s komunikačními rozhraními mezi nimi vedenými na desce by mělo proti podobně dimenzovanému integrovanému APU spotřebu zvýšit. Pokud bychom spotřebu konzole brali jako pevný limit, pak by teoreticky mělo APU v tomto rámci poskytovat spíš lepší výkon – tedy za předpokladu, že dostane dostatečně výkonný paměťový subsystém a nebude ho škrtit propustnost.

sony-playstation4Zda se tyto zvěsti vyplní, zjistíme asi až za delší dobu. Podle NextPowerUpu by se PS5 patrně neobjevila příští rok, ale byla by vydána až někdy v roce 2109 (nejdříve), možná s odhalením na E3 2019.

Konzole PlayStation 5 už údajně nemá mít APU, Sony chce prý použít samostatné GPU

Ohodnoťte tento článek!

36 KOMENTÁŘE

    • Přechod na nový node nikdy spotřebu „nevyřeší“, jen oddálí. Kdysi dávno jsem si pořídil bájný C2D E8400 s TDP 65W. Vloni jsem zakoupil i5-6500K s TDP 91W. 45nm vs 14nm a přesto jsem nasadil ještě masivnější chladič než kdysi. Samozřejmě že mám mnohem větší výkon, ale vyzářeného tepla jsem se určitě nezbavil.

  1. Možná je taky jedním z faktorů, že čipy v APU odvádí teplo přes společnou plochu. Obecně se mluví o problému přenosu tepla z příliš malého kusu křemíku pod IHS, který klidně tvoří méně celkového tepla než jeho generační předchůdce, ale zato více tepla na pevnou jednotku plochy (viz. heat flux). Problém jde ale určitě posunout o úroveň výš, tedy máme příliš malou kontaktní plochu IHS a základny chladiče.
    Fór je v tom, konzolové APU (aspoň podle fotek) IHS nemají. Pokud by čipy nebyly na stejném pouzdře, nejspíš by se poměr wattů na plochu zmenšil možná i přes nějaký marginální nárůst celkové spotřeby.
    Další věc co mě napadá je, že chtějí být více flexibilní v nějakých inkrementálních vylepšeních. Tedy místo nově navrženého křemíku pouze pozměnit část GPU (viz. PS4 Pro), což mi zavání tím, že komponenty budou ještě ve větší nerovnováze než dosud.
    Nakonec jsem si nechal ten nejmokřejší sen všech konzolistů – částečně modulární konzole. Tedy aspoň v tom smyslu, že by šlo za nějaký smysluplný peníz vyměnit GPU v konzoli nějakým novým modulem. Pak si ale člověk musí uvědomit, že tu mluvíme o Sony… 🙂

    • Začnu od konce: pokusy o modulární řešení tu už několikrát byly (zejména Sega Megadrive, ale třeba i Commodore CD32) nikdy k úspěchu nevedly, jdou totiž vysloveně proti konceptu kobzole (setup-n-forget).

      Další problém u ne-APU řešení je větší náročnost na chlazení (víc mědi a víc hluku) a větší nároky na prostor.

      Z mého pohledu to moc smysl nedává, Sony může jít k Intelu a nvidii, ale neušetří, nebo k ARM, ale tam zase nezíská na výkonu. Naopak moderní APU s HBM a Ryzen cores by mohlo zvrátit veškerá paradigmata týkajících se dnešních APU.

      Nicméně pravidlem u těchto korporací bývá střídání dodavatelů aby bylo možné „vyladit slevy“ – technické řešení je pak až na druhé koleji. Tudíž možné je vše a nic bych jako „nemožné“ neoznačil, viz průserový HW ze smeťáku od Nintenda.

      • Presne tak, ZENové APU to vyrieši, bude tam 8 threadov slušné IPC, takt 2-3GHz a pamäťovú priepustnosť pre GPU vyriešia dva čipy HBM2. Ak to má byť na rok 2019 tak to už možno bude aj na 7nm so ZEN2 a HBM2 bude dostatok.

        • No a tim si prave nejsem jist. 2019 je ted + 2 roky (nepredpokladam release zacatkem roku, to spise koncem). Pokud uz ted existuji 8-core CPU na taktech 3.4+GHz, tak co bude za 2 roky? 8 jadrovy jaguar na 1,6GHz byla take marketingova pecka, akorat update prisel pomerne rychle. A ted bude dalsi update u Xboxu. Takhle konzolovy svet nefunguje a fungovat nema. Vyvojari potrebuji dostatecne robusni HW, ktery jim nikdo nebude menit pod rukama x let. Pak se ty hry daji optimalizovat na max a konzole ma smysl. V opacnem pripade ma konzole vsechny nevyhody oproti PC, jako napr. nemodularitu, nizky vykon, spatne chlazeni, pomale a pro vyvojare drahe updaty apod. Oproti PS3 a Xbox360 je PS4{,Pro} a Xbox One{,S} a zrejme i Scorpio technologicke selhani.

      • Ten modulární koncept jsem zmínil spíš pro zajímavost, než že bych to myslel vážně. Je koncept, který se vskutku vůbec neosvědčil, navíc se na něm nedá trhnout tolik peněz jako na nové generaci konzole.
        Jinak mám pocit, že můj komentář nikdo absolutně nečetl. 🙂 Řešení dvěma samostatnými pouzdry může mít naopak příznivý efekt na chlazení, protože díky tomu, že čipy dohromady zabírají větší plochu, je fyzikálně jednodušší z nich odvést stejné množství tepla za jednotku času. Ten narůst spotřeby který to vyvolá bude jen marginální v jednotkách procent (i kdyby to bylo 10%). Fór je v tom, že bude vždycky jednodušší odvést např. 120 wattů tepla ze dvou čipů než z jednoho. Ten hliníkový chladič stejně nikdy nemá teplotu stejnou jako pouzdro čipu, ale větší tepelný kanál ho tu chladící kapacitu chladiče mnohem lépe využije.
        Nemám nic proti APU, naopak mi jejich filozofie připadá pro dnešní konzole jako ideální. Ideální by bylo, kdyby se jim podařilo integrovat veškerou čipovou sadu na jedno pouzdro a kolem by byla jen hloupé PCB s konektory. Některé komponenty nevytváří tolik tepla, takže získaná „mrtvá“ plocha by mnohem lépe odváděla teplo.
        ad ARM) Dokud někdo nevymyslí způsob, jak z jednoho jádra ARMu vytlačit výkon srovnatelný s dnešním x86 jádrem (úroveň Kaby Lake/Zen), tak je to podle mě akorát cesta do pekel. Situace kolem PS3 je vytrestala dost (vývojáři tu architekturu nesnášeli).

        • Já jsem to četl, ale nesouhlasím. Problém plochy je irelevantní, protože to by byl u daleko žravějších čipů ještě větší průšvih, což není. Naopak, dva zdroje tepla automaticky potřebují dva nezávislé chladicí okruhy (a pokud se to výrobce snaží řešit jednou heatpipe trubkou/chladičem, dochází k problémům – viz Xbox360 a jeho RROD.)
          Co se týká vysoké míry integrace, tak ta je v podstatě u konzolí dosažena..

          ad ARM: souhlas.

        • hry vyzuivaji smesne malo z vykonu x86, kuprikladu Borderlands: The Pre-Sequel si zahrajes vpohode i na obstarosni Tegre K1, tedy ARm starem 3 roky a vykonem dnes doslova nicotnym, na X1 v Shieldu hraju tu hru zcela vpohode na FHD okolo 60fps, a i tahle Tehra ma vcetne GPU casti spotrebu okolo 20W, pri hrani se to chova porad jen jako 4 jadro, takze chystana X2 nebo Xavier kde se jiz bude jednat o 8 jadro s Pascalem, naprosto vpohode i na 4K 🙂 a za ty 3 roky co mozna budou jeka predstavovane nove konzole bude i Xavier zastaralej kus kremiku

          lidi ivedomte si ze na uzavrene platforme je ke hrani potreba celkem malo vykonu CPU, to ze na windows je to jinak je dano tim jakej bordel tam panuje v pristupu prez API, musi to obslouzit az prilis mnoho moznosti a prilis vykonu je na univerzalni moznosti, a jestli dnesni TOP hry v oblasti treba stretegii ktere jsou na CPU nejnarocnejsi uzmou asi 10% skutecneho vykonu CPU tak je to hodne, a to ze to CPU vytezuje na max je dano prave tim, ze to je univerzalni platforma, uzavrene prostredi jakym je Playstation je na tom uplne jinak, ostatne schvalne jak by se vam hralo na Jaguaru co je v dnesnich konzolich? no na windows spatne, protoze to CPU je nekde na urovni zakladnich Celeronu 😉

          • mam vsechny Borderlands dohrane jak na PC tak na Shieldu a rozdily tam jsou, ale relativne male a nepostrehnutelne pri hrani, jako grafik si toho vsimnu protoze to je proste profesni prokleti, ale drtiva vetsina hracu nepozna zrejme nic

        • Pro PS3 bylo slozite programovat, ale na druhe strane co ta konzole HW dokazala a jakou dobu bylo take uzasne. Pokud nekdo musi par mesicu po vydani zvysovat vykon a to hned 2x, tak je proste neco spatne. Pozadavky typu „ale vyvojari musi dodat hru kompatibilni nejen s Pro, ale i puvodni verzi“ (a to same pro Scorpio)… Je to presne naopak, Sony a MS by mely dodat HW, na ktery nebudou vykonove hrabat nekolik let a poskytnou dostatecne zazemi pro vyvoj her (take na tom rejzuji nehorazne prachy).

          • pro soucasnej Playstation to jiz slozite neni, FreeBDS maj vyladene dobre vcetne API, a je uplne fuk co za HW pod tim lezi, ono ani PS3 nebilo tak silene jak se vsude pise, delal jsem na dvou velkych titulech pro PS3 a ani u jednoho si programatori nestezovali, spos grafici protoze tam byla proste omezena pamet, zhyrale roxzhazovani pameti na PC proste neslo a muselo se setrit doslova na kazde texture, na kazdem animacnim klici, proste na vsem aby se to tam vlezl 😀

          • SamanCZ 8.6.2017 at 9:39
            No tak ja mam malinko odlisne informace co se tykaji programovani Cellu, ale to neni podstatne. Co je podstatne, ze ta konzole zila pomerne dlouho dobu a hry na tom vypadaly skvele + dalsi technologie jako Move. Dnes jsou na trhu „oklestena PC“, ktera se musi upgradovat, protoze uz pul roku pred vydanim to byl slaby HW, ale to neni uplne ten problem. Problem vidim v tom, ze Sony a MS navrhnuli neco, co melo pomerne rychly upgrade, coz by se ve svete konzoli stavat nemelo a i presto, ze hry na PC jsou nenazrane, protoze mohou byt, tak postoj Sony a MS vuci vyvojarum „musite udelat svoji hru kompatibilni i pro starou verzi HW, (ktery jsme my nezvladnuli)“ je spatny. Hlavneze obe firmy rejzuji nehorazne prachy na vsech frontach (vyvojari, uzivatele a placene sluzby).

  2. Sony je v soucasne dobe v nejhorsi mozne situaci, s upgrade musi spolehat jen na AMD a navic je jeden dodavatal pro obe konkurencni konzole, vpodstate HW je temer to same v obou dvou, a ted jde o to s kym ma AMD „uzsi“ dohodu, tesly se Sony nebo s Microsoftem, rekl bych ze spise s Microsoftem.

    Sony ma i vlastni divizi na upravu ARM, lidi maj a je jen otazkou zda ty lidi umej vyprodukovat i ARM daneho vykonu ktery potrebuji, a ze procesoroveho vykonu u konzoli as tak potreba neni, to co je dnes hodne pozadu je prave GPU cast. Samostatnou GPU casti by si tedy zajistili mpoznost mnohem snazsiho upgradu v budoucnu, nehlede na fakt ze do maximalni spotreby Playstationu 4 Pro ktera cini cca 300W, tretinu konzole vpodstate tvori zdroj, pri nejnarocnejsich hrach si bere okolo 150W. a do techto hodnot se dnes vpohode vlezou i ty nejvykonnejsi MXM grafiky, a i nejake se spotrebou okolo 80-100W jsou dnes nekolikrat vykonnejsi nez to co je v APU konzoli dnes.

    Staci si pripomenout ze Sony ma dnes moznost si nejen GPU poridit primo od nejktere z firem ktere by pripadali do uvahy, ale take si dnes muze i GPU vyvynout samo a nejakou archytekturu si licencovat, ostatne nabizi to jak Nvidia tak AMD.

    Osobne si teda myslim ze pristi Playstation bude mit inhouse ARM (FreeBSD nema problem se zadnym procesorem vetsich a znamejsich platforem, proste si napisou instrukce primo pro jejich potreby, takze cokoli od x86-64 prez ARM az treba po MIPS) a k tomu proste GPU na urovni meinstreamu v dobe vydani konzole. I s ARM se spotrebou treba 20-25W, grafikou okolo 100W a zbytkem systemu na urovni treba 30-40W by soucasnoy variantu 4Pro predstihli vykonove nekolikanasobne., mimochodem i poskladat takove PC maloobchodne dnes neprijde draz nez na 12-13 tisic (s X86-64 procikem samozrejme) , velkoobchodne se bavime o cene asi 6-7 tisic, v pripade konzole kde si to poskladaj v tovarne masove v milionovych seriich rocne pak o cene pod 4 tisice. A jen pripomenu ze cena dnesnicho PS4 Pro je cca 10 tisic maloobchodne.

    • S ARMem by si ale pohoršili i proti Jaguaru, to fakt není moc řešení pro 4K hraní, ARM na výkonné užití moc stavěný není a x86 architektura jej u TDP okolo 40-60W už celkem jasně válcuje (třeba si uvědomit, že na 65W se dostaly už i plnotučné 8C Ryzeny).

      A ještě k tomu PC za 10/PS4Pro za 6: to je sice hezké, ale tyto stroje na 4K gaming nemají ani náhodou. Přitom éra 4K tu už reálně je.

      • 4k nezvladaji ani soucasne konzole, navic za 2-3 roky kdy bude realne mozne ohlaseni novych konzoli bude dostupnej HW davno vykonove uplne nekde jinde

        jak ukazuje Denver, tak vykonostne naproto vpohode postacuje na hry stare 2-3 roky, a ted nemyslim streming, ale primo hrani na nem, tech her na storu Nvidie je celkem dost ktere jsou primo na konzoli a pocitaji se na ni, a to se bavime o APU co ma spotrebu 20W, takze 40-60W bude zase uplne jine kafe, uvedom si ze to neni Windows kde se vyuziva vykon procesoru extremne spatne 😀 , ty lidi do divize ARM asi Sony nenajima ted par mesicu jen tak pro nic zanic, ale asi za nejakym ucelem 😉

        • No ono je v podstate jedno, jestli to jede na ARMu, nebo x86, pokud je ten vykon dobre vyuzivany. Ale nebyl hlavni argument Sony a MS s aktualnima konzolema prave to, ze umoznili vyvojarum sjednotit kod, tedy ze nepsali hry na 2-3 uplne rozdilne architektury?

          • sjednocenej kod je davno, jedine co se dela je kompilace pro dane zarizeni a to je porad stejne i u soucasnych konzoli, Sony ma vlastni OS a vlastni API porad, diky API ale dnes neni videt co je pod tim za HW

          • SamanCZ 8.6.2017 at 9:40
            Dnes ano, coz byl argument pro x86 PS4 a XBone. Drive to ale nebylo tak jednoduche, protoze PS3, Xbox360 a PC bylo uplne neco jineho. Vetsina kodu sice stejna byla, ale prave to ladeni na specificke architektury uz byla PITA – a prave ne vse pokrylo API.

      • nesmysl, to je vec ovladacu, programatori vubec neresi neco jako ARM nebo X86, resi jen to co jim FreeBSD serviruje prez sve API 😉 ve vyvojovem prostredi vidis jen samotna jadra, nikoliv architekturu, takze prace by to byla jen nazacatku pro Sony 😉

          • v prapade her ano, programujes pro API, a jen se prizpusobujes specialitkam navic, coz dnes dela minimum vyvojaru

            u programovani specialnich appek samozrejme kod je odzacatku uspusoben konkretnimu HW a jeho funkcim, her se to ale netyka, maximalne nastavby enginu jako fyzika se pisou pro dany HW, viz treba CUDA

          • SamanCZ 8.6.2017 at 9:43
            No a treba CUDA je dobry priklad. Pak, i prestoze API umoznuje vyvojarum psat „abstraktneji“, tak stale napr. PS3 melo kompletne odlisne API od Xbox360, protoze i ten HW fungoval jinak (napr. hodne mala, ale zato rychla pamet)… Nevim, jak je to s dnesnimi konzolemi, ale i tim, ze HW je vlastne x86, tak ty vlastnosti jsou podobne (nerikam stejne, viz napr. 8GB DDR5 pro cely system / Cell APUs vs. x86 jadra).
            A kdyz jsi nakousnul ty kompilatory, ano ale nekdo je musi napsat a zoptimalizovat. Takze pokud ten kompilator na danou architekturu neni dostatecne dobry, tak z toho prave vznikaji ty rozdily v kodu.

    • Konzole musí být levná, takže nemůžeš počítat s efektivitou notebookové karty, ale s desktopovou – bude to speciálka a tak nejde vybírat nejlepší biny, naopak musí být upotřebitelné vysoké procento čipů, protože zbytek se vyhodí. To zároveň znamená, že výkon ti vždycky sníží vypnutí pár bloků, které budou muset být rezervní pro zajištění výtěžnosti, kdežto ty modely, co s nima srovnáváš, jsou třeba v plné palbě. No a nakonec budeš taky ze stejného důvodu muset mít o dost nižší takty (viz kde běží Xbox/PS a jaké jsou takty těch jader/podobných GPU v některých PC produktech). Takžeo tom „několikanásobku“ výkonu (tj. výrazně víc než 2x) si dovolím pochybovat, leda bychom se teda bavili o tom, že to bude stavěné na procesu o dost generací novějším než 16FF/14LPP dnes.

      Jinak výkonnostní srovnání nějakýho dnešního GPU pro PC by nemělo zapomínat na to, že PS4 Pro umí FP16, což má hardwarově jen GP100, žádné jiné existující GPU (a Vega 10, až přijde).

      • i dnes kuprikladu desktopova 1050Ti je malinka, spotreba do 75W, tak si ted predstav jaka grafika pujde poridit v tehle kategorii za 2-3 roky, a jak bude asi velka?

        nove konzole pokud je ohlasi, tak nejdrive za 2-3 roky a do prodeje mozna za 3-4 roky, do te doby se toho jeste sakra hodne zmeni na tom co dana GPU podporuji, je nesmysl dnes resit nejakych 16FF/14LPP pro neco co jeste ani neni navrzene 😀

          • jiz ted integrovana GPU zaostavaji a rozhodne nedosahuji vykonu mainstream dedikovanych, a snad je v tvem clanku jasne napsane ze zvazuji separatni GPU ne? takze chces rozporovat to co jsi napsal v clanku 😀

          • To co je v článku je snad zpráva z NextPowerUpu, to je snad jasné, ne můj názor, ne?

            Podle tebe ty samé bloky v integrovaném GPU nedostanou ty samé benefity z nového výrobního procesu (a potažmo nové architektury)? To fakt nevím proč by to jako tak mělo být – pokud se tomu zajistí dostatečná paměťová propustnost, tak není důvod, aby to nějak „zaostávalo“. V tomhle nemá vydělení na samostatnej čip žádnou výhodu ty výpočetní jednotky a další bloky budou škálovat úplně stejně. Fakt nevím, proč by 10nm/7nm/etc proces u APU měl najednou mít horší redukci spotřeby/zvýšení taktů, než u GPU.

            Jestli to bereš podle desktop/notebook APU, tak tam je právě ten případ, že je to všecko brzděné pamětí, čili srovnáváš jabka s hruškama. Xbox Scorpio má zřejmě mít 384bitovou GDDR5, příští generace by možná mohla mít GDDR6 – ty konzolové APU jsou na tom jinak.

          • kde pisu neco otom ze ty same bloky nedostanou dane benefity na novem vyrobnim procesu? naopak pisu ze se to casem jeste posune a nove archytektury budou podporovat mnohem vic (a ze nez tu budou nove konzole, tak se dockame jeste minimalne dvou novych archytektur GPU a pravdepodobne 2-3 novych vylepseni/novych archytektur ARM)

          • protoze dostat na jeden kus kremiku CPU a iGPU v nejake rozumne forme asi neni tak snadne jako udelat proste dva separatni cipy? tak navrhni AMD at udela APU s tim nejlepsim z obou co ma k dispozici, jiste budou desne radi ze budou mit obri cip s vyteznosti par kusu na waffer 😀

            prozatim vzdy APU resi spise lowend co se GPU tyce, asi moc dobre vedi ze by se asi moc dobre neujalo ani mainstreamove natoz hyghendove APU v obou ohledech, vyjimku tvori asi prave jen APU pro velke konzole, a asi to nebude zrovna levna zalezitost s nejak extra vyhodama

          • Hele, všechna APU dodnes měla 128bitovou sběrnici s pamětí na 1866-2400 MHz efektivně (= lowend diskrétní GPU, tak GT 730, R7 240, respektive ještě horší). To jo pořád to, co říkám, ten desktop/notebook je limitovanej pamětí, nemůžeš to podle toho posuzovat. Zaměřuješ se furt na jeden detail/jev ale ignoruješ ty celkové zákonitosti za tím, IMHO.

            Koukni na Bristol Ridge, GCN generace Tonga/Fiji mu v 28nm běží na 1100 MH7 stock. To je stejnej takt, kam se dohrabaly diskrétní GPU (a to je to ještě tuším na spotřebu optimalizovanej proces, ne na výkon).