Radeon RX 6600 XT prý vyjde příští měsíc, RX 6600 později? Cena ale má být hodně vysoká

51
Referenční provedení karty AMD Radeon RX 6700 XT 1600
Referenční provedení karty AMD Radeon RX 6700 XT 1600
-
Zdroj: AMD

Radeon RX 6600 XT coby levnější karta architektury RDNA 2 konečně jde na trh, prý má vyjít příští měsíc. Problém je, že levná nakonec vůbec nemusí být.

Konečně se začíná rýsovat vydání a také cena levnějších modelů grafik Radeon RX 6000 s architekturou RDNA 2. Další karta se má po delším čekání přidat příští měsíc, a bude to mainstreamový model Radeon RX 6600 XT. Karta bude založená na již třetím GPU z linie RDNA 2, čipu Navi 23. Nepůjde ale zdaleka o nějakou lowendovou kartu, má mít celkem vysokou cenu a mířit proti GeForce RTX 3060 Ti. Pokud to tedy nezmění současné klesání cen.

Informace o Radeonu RX 6600 XT teď přinesli youtubeři Coreteks a Moore’s Law is Dead. AMD by podle nich mělo tento model vydat příští měsíc, tedy v srpnu (auguste).

Podle dosavadních zpráv je karta založená na snad plně aktivním čipu Navi 23 s 2048 shadery, jenž už je nasazen v Radeonu Pro W6600, kde je však částečně ořezaný. Toto GPU má 32 Ray Acceleratorů pro raytracingové efekty a 64 ROP. Čip dostal už jen 128bitovou paměťovou sběrnici, na které bude 8 GB GDDR6. Hernímu výkonu bude pomáhat Infinity Cache, takže by měl být lepší, než by 128bitové paměti normálně znamenaly. Nicméně Infinity Cache už je v tomto případně relativně malá, má jen 32 MB (zatímco GPU Navi 22 v Radeonu RX 6700 XT má 96 MB a Navi 21 pak 128 MB).

Podle zdrojů Coreteks by s těmito parametry výkon výkon karty údajně mohl být někde okolo GeForce GTX 1080 Ti či Radeonu RX 5700 XT, respektive blízký (s tolerancí plus minus 5 %, takže až tak přesně asi průměrný výkon této karty známý není). Toto asi ale bude platit pro hraní v rozlišení Full HD. Vzhledem k nižší propustnosti a poměrně malé Infinity Cache asi výkon bude hůře škálovat na vyšší rozlišení.

Informace ke kartě AMD Radeon RX 6600 XT od Coreteks
Informace ke kartě AMD Radeon RX 6600 XT (Zdroj: Coreteks)

Cena 399 $?

Co nepotěší, je cena. Ta možná ještě ale nemusí být definitivní, vzhledem k tomu, v jakém pohybu teď grafický trh je kvůli útlumu bubliny kryptoměn a jejich těžby na GPU. Nicméně podle obou zdrojů teď AMD plánuje tuto kartu prodávat za 399 $, což je na přinejlepším nižší mainstream se 128bitovými pamětmi opravdu hodně. Karta by tak byla jen o 80 dolarů levnější než vyšší model Radeon RX 6700 XT. Ovšem už jeho cena 479 $ také je hodně vysoká. Obě karty se zdají být naceněné s minimálně částečným přihlédnutím k brutálně předraženými cenami grafik během těžební bubliny. Je proto na místě otázka, zda by jejich cena neměla být snížena, až (nebo pokud?) se teď podaří vlivy kryptohorečky setřást.

Jak bylo řečeno, cena ještě asi nemusí být úplně definitivní, ale to také nemusí znamenat, že se nakonec nepotvrdí (čím horší zpráva, tím pravděpodobnější, řekl by zkušený pesimista). 399 dolarů by znamenalo, že u nás s DPH by oficiální cena byla nějakých 10 550 Kč či v eurozóně 408 €.

Přijde vám cena 399 $/408 €/10 500 Kč za Radeon RX 6600 XT adekvátní?

RX 6600 bude také, ale možná později

Před několika dny se na webu výrobce PowerColor objevily nové kategorie Radeon RX 6600 XT a RX 6600 mezi modely grafik. Jsou zatím prázdné, ale mělo by to dokládat, že se k vydání chystají tyto dvě různé verze a ne jen model XT. Neznamená to však, že RX 6600 vyjde současně s XT, může mezi nimi být časový odstup. Podle Coreteks zatím však o času vydání RX 6600 informace nejsou (na rozdíl od RX 6600 XT), což naznačuje, že jeho vydání bude proti výkonnější verzi o kus posunuté.

Referenční karta z renderu nebude na prodej, Radeon RX 6600 XT bude nakonec jen v nereferenčních formách

Podle informací od Coreteks prý budou vydané jen a pouze nereferenční karty Radeon RX 6600 XT, tedy různá provedení navržená přímo výrobci karet s jejich vlastními designy chladičů, ale nikoliv referenční model s chladičem navrženým od AMD. Měli jsme tu sice minulý týden obrázek jeho designu (který vychází z referenčních chladičů karet RX 6800 a vyšších), ale podle Coreteks je tato podoba víceméně jen virtuální a slouží jen jako „tvář“ této karty pro propagační materiály AMD.

Render referenční karty AMD Radeon RX 6600 XT
Render referenční karty AMD Radeon RX 6600 XT (Zdroj: VideoCardz)

Partnerské karty totiž typicky nemají nějaké viditelné označení Radeon (jsou i většinou podobné jako GeForce) a AMD logicky nechce ukazovat kartu jednoho výrobce na úkor druhých. Pro reprezentační účely proto bude sloužit tato vyrenderovaná podoba karty, která se reálně nebude vyrábět. To asi také odpovídá na naše výhrady k tomu, že měl pasiv řešeno žebrování ne zrovna optimálně vzhledem k jednomu ventilátoru. Vysvětlení je, že nejde o reálné chlazení, tudíž nemusí být 100% praktické.

Zdroj: VideoCardz

Radeon RX 6600 XT prý vyjde příští měsíc, RX 6600 později? Cena ale má být hodně vysoká
Ohodnoťte tento článek!
4.2 (84.29%) 14 hlasů

51 KOMENTÁŘE

  1. Pokud vezmeme v úvahu MSRP, tak 3060Ti byla zatím nejvýhodnější karta v poměru cena/výkon, když ta radeonka v rasterizaci bude podávat obdobný výkon, bude mít zajímavý poměr ceny a výkonu taky, 3060Ti by však byla výhodnější kvůli RT výkonu, DLSS, AI akcelerace a NVENCu,

    • Sám jsem zvědavý jak to dopadne, rád bych něco s výkonem kolem 5700 s co nejnižším TDP a rozumnou cenou, s tím že bych ji doma ještě trochu „umravnil“ kvůli tichu.
      Jen by mě zajímalo jestli těch 8 PCIE linek v případě 3.0 nebude omezením.

    • Jiříček zase perlí…
      1. bere v úvahu MSRP, takže ceny ze světa fantazie
      2. „RT výkonu, DLSS, AI akcelerace a NVENCu“
      – RT na takto výkoných kartách nikoho nezajímá – to si zapně jen masochista
      – DLSS – částečně, ale už vidím toho blba, co si koupí levnou grafiku a k tomu super 4K monitor
      – AI akcelerace, NVENC – uvést to tady jako velký důvod proč NVIDIA, když to použijí malé jednotky % lidí… to chce odvahu. Ale na překrucování reality a přibarvování do modro/zelené od JirkyK jsme zvyklí

      • Wendaku, prestaň krákat jak chorá vrána, komplik napísal
        pravdu…
        Včera som mrkol na hráčsku platformu STEAM a vidieť,
        že hráči nie sú sprostí…AMD dopadlo hrozne, len 15%
        hráčov používa červené karty, zato nVidia slávi úspech
        76% užívateľov je nepriestrelný argument…

            • Tvoje argumenty jsou maximálně tak tvoje domněnky a ty bajky o zkušenostech lidí okolo tebe tím tuplem. To si můžeš strčit do prdele na štorc.

        • gogo, jediný, co píše C.K. správně, je, že všude kolem, i kolem mě je víc lidí, co mají RTX Nvidii, ale když se s nima bavím, tak NIKDO nezapíná RT, DLSS spíš výjmečně, když má někdo lepší monitor, a AI nebo enkoding už vůbec ne, takže tím argumentovat, že tím je něco lepší je dost „odvážný“.
          Tudíž to na překrucování u mě nevidím, takovou mám realitu kolem sebe… A Jiříkovi bych nevěřil ani pozdrav, tak proto

          • No iste Wendaku, zato, že ty a tvoje známosti
            nevedia zhodnotit moderné technológie implementované nVidiou sú zbytočné…no to
            je presne tvoja popletená logika…
            Inak často používaš na prezentáciu svojich
            nekompetentných príspevkov množné
            číslo, schovávaš sa za imaginárny kolektív…
            Je to veľmi zbabelé podsúvať svoje hlúposti
            v mene ostatných, trapošina…

            • Ježiší přestaň mě otravovat stupide, nikdo na takový odpad není zvědavej

            • Wendulko, to ty furt otravuješ…
              Od nicku Fokume si stratil heslo ?
              Si ty ale truľo…

      • Ano beru MSRP ceny protože to je to co mě zajímá. Sám čekám na pokles cen grafik abych si nějakou pořídil herní PC jsem prodal v únoru za dobré peníze.
        Měl jsem 2070S, po pořízení zbytku počítače mi zbylo dost na pohodovou 3070 a s 15 stovkama příplatku dokonce na 3080, ale cílím spíše právě na RTX 3060Ti. Nebudu to kupovat ale dráž než cenu kolem MSRP. 3060Ti bude dokonce upgrade proti 2070S

        RT běží slušně i na RTX2060, na 2070S mi třeba WF:YB běžel kolem 100FPS v průměru s RT nativně. Všechny ostatní, náročnější tituly s RT mi běžně běhaly přes 60FPS ve FHD nebo 2560×1080, a ten výkon tam je právě i díky DLSS, bez něj by to nemělo na 60FPS. Na 2070S jsem přešel z GTX1080 a to jen kvůli RT výkonu, kterého má 2070S dost a to mám ještě docela vysoký požadavek 60FPS 1% low. Dost lidí se spokojí s 60 FPS v průměru a u leckteré hry klidně i méně. Není žádný problém, konzolisté běžně hrají na 30FPS.

        AI akcelerace nebo NVENC… no používá to mraky content creatorů, video tvůrci, streameři…

        Tak jak tak vyšší RT výkon, DLSS, AI a NVENC jsem uvedl jako přidanou hodnotu v případě kdy 6600XT bude stát 399 a bude mít rasterizační výkon podobný RTX3060Ti za stejných 399

        Proč si koupit grafiku za 399 když jiná mi za 399 nabízí featury navíc, vezmu to lépe vybavené. Proto se třeba 5700XT prodávala hůře než 2070S, v rasterizaci téměř srovnatelné karty, ale RTX stála víc, přesto se v té kategorii prodávala nejlépe protože byla lépe vybavená. RTX2070S byla dokonce nejprodávanější grafikou, například na MindFactory nebo na CZC

  2. „Pro reprezentační účely proto bude sloužit tato vyrenderovaná podoba karty, která se reálně nebude vyrábět.“

    Tohle je take super 😀 Asi to ma v ramci marketingu smysl, ale mne to prijde postavene na hlavu.
    Jinak by me teda zajimal i maximalni prikon, kdyz ta karta „konkuruje“ cca 4 a pul roku stare 1080Ti., ktera byla za cca dvojnasobnou cenu, ale take s vice pameti a top herni model.
    Jinak ja stale nevidim duvod 1080Ti upgradovat na cokoliv, VR je polomrtve, RT omalovanky mi neprijdou jako duvod kupovat novy HW a vzhledem k prikonu a cene novych karet, mi takovy upgrade ani neprijde, ze ma pridanou hodnotu pro 4k. Nebo mozna 1080 Ti byla nadcasova.

    • Pokud nejde o RT, nový NVENC, AI akceleraci atp… tak 1080Ti je skvělá karta na FHD hraní ale už má nevyrovnané výsledky, v některých nových titulech už nedrží stejné výsledky jako výkonově srovnatelné nové karty.

      Na hraní nad FHD rozlišení už je to dost dýchavičné, zvláště pokud je hráč náročný an FPS a/nebo kvalitu.

      Ad příkon nových karet…Příkon nových karet je nižší v poměru k výkonu. 1080Ti si vezme 230-240W, 2070S která ji leckde překoná si vezme 200-210, podobně si vezme 3060Ti která tu 2070S překonává v průměru o 10-15%.

      Ano 3080 si vezme svých 320W, ale nabídne cca dvojnásobný výkon 1080Ti v případě RT a DLSS to bude řádově 6.10x vyšší výkon… A to vše jen za cca 1/3 spotřeby navíc

      • komplik 10.7.2021 at 15:48
        Kdyz jsem hraval na PC, tak v QHD a vse (treba Rainbow 6: Siege) mi jelo kolem 100 FPS. Ta 1080 Ti si ale v tu chvili brala pres 300W! Tech 240W, co jste zminoval, je utopie.
        Streamer nejsem, a videa kdyz delam, tak ne pomoci NVENC (to je. Na plne RT nebude mit ani RTX 40×0, takze to me take nebere. Zajima me cisty vykon ve 4K a VR, samozrejme nativne. Grafiku s prikonem 300W uz nechci, vlastne ani s 200W (plytvani energii).

          • No je pravda, ze ten Afterburner tam mam a mam i pocit, ze jsem to meril s nim.
            Ale jinak to moje MSIcko zere ukazkovych 330W, co deklaruji v dokuemnetch (meril jsem cely pocitac na zasuvce a porovnaval jsem ruzne spotreby s ruznymi vytizenimi CPU a GPU, plus jsem meril stejny pocitac i s jinym GPU). Ted to sice nemam jak proverit, ale je mozne, ze ten SW to nejak balancoval na max vykon. Kazdopadne ta karta je tichoucka i v max zatezi a v ma perfektni power management. Az na ten max prikon je to za me „majstrstyk“.

        • Bude záležet na edici té karty, samo, nějaké OC edice se zvýšeným power limitem mohou jít výše… tak záleží titul od titulu, určité prvky umí spotřebu grafiky zvýšit více než jiné.

          https://www.youtube.com/watch?v=zIU0p5AVYpE

          Tady je srovnání GTX1080Ti a RTX3060, pravda, je to 4k, ne FHD nebo QHD.. V Cyberpunku je to fakticky plichta, v jiných hrách byl rozdíl 5-10% ve prospěch 1080Ti, tzn je to tak jak bych čekal.
          Spotřeba 1080Ti je mezi od cca 215W v AC po 280W v Controlu, průměr tedy těch cca 250W což je i ofiko TDP pro 1080Ti.

          U 3060 je spotřeba mezi cca 140-180W, takže cca 160W průměr, TDP pro tuhle kartu je 170W

          Tzn 0-10% výkonu u 1080Ti navrch za cenu 90W navrch, což je víc jak 50%

          3060Ti bude mít odhadem cca 10% výkonu nad 1080Ti a spotřebou je na 200W. Efektivita se posunula nahoru.

          Nicméně to nepopírá fakt, že kdo koupil GTX1080Ti hned v úvodu má dneska pořád slušnou grafiku pokud se obejde bez RT. Na FHD má pořád luxusní výkon a s drobnými kompromisy zvládne v poho QHD. Upgradovat jen kvůli spotřebě by nedávalo smysl.

          BTW. já měl chvíli myšlenku koupit RTX3080 jako náhradu za 2070S. Normálně hraju s VSyncem na monitoru záměrně držícím 60Hz i když umí víc, v některých hrách ta 2070S sotva spouštěla větráky (gaming x trio) při spotřebě cca 150W, 3080 by to mohla zvládat možná slušně pod 100W což by s podobným chladičem mohlo znamenat že poběží pasivně nebo jen na minimální otáčky. Luxusně tichý herní počítač. Byť má karta o 100W vyšší TDP

          Příklad efektivity je ten mnohými nepochopený Huangův graf s 1.9x vyšší efektivitou. RTX2080S s 240W spotřeby dávala v 4k s RTX a DLSS akorát 60FPS, to samé 3080. zvládá pod 130W. Ve FHD by to musela dávat v pohodě pod 100. Opět možnost chladit to s všemi ventilátory v počítači třeba na 4-5 stech otáčkách = nejde to slyšet .

          Když zabrousím do historie.. Měl jsem GTX980, vytaktovanou na 1500MHz aby to vůbec mělo výkon, spotřeba 200W, nahrazeno GTX1080 v den začátku prodeje, proti přetaktované 980 +50% výkonu a spotřeba 180W. 1080 nahradila 2070S, výkon stoupl v průměru o 1/3 (non RT, jen rasterizace, RT o 300% s DLSS o cca 400-500%), ano spotřeba vylezla o 30W tzn o 1/6 proti 1080 ale proti 980 je to 2x tolik výkonu a jen 5% spotřeby navíc.

          • „3080 by to mohla zvládat možná slušně pod 100W což by s podobným chladičem mohlo znamenat že poběží pasivně nebo jen na minimální otáčky. Luxusně tichý herní počítač. Byť má karta o 100W vyšší TDP“

            To bych netvrdil, dokud bych to nevyzkoušel. Je klidně možný, že kvůli tomu paměťovému subsystému, velkému čipu a tak, aby to naopak směrem dolů moc neškálovalo. Podle mě aby to takhle fungovalo, tak by musel člověk ručně podtaktovat a podvoltovat a moc efektivní použití karty za 700$ by to nebylo.

            „Příklad efektivity je ten mnohými nepochopený Huangův graf s 1.9x vyšší efektivitou.“
            Tam si myslím, že to právě bylo podtaktované a podvoltované ručně. Chtělo by to vyzkoušet no…

            ————————————–

            Ale jinak mi to připomíná:
            už chvilku pozoruju zajímavou věc, jak se vrací některé věci, které se dřív říkali o AMD × Nvidia a teď to zase je obráceně.

            – V době Maxwellu měla Nvidia GPU s menším počtem jednotek na vyšším taktu, AMD naopak.
            – Nvidia dosahovala stejného herního výkonu na čipech s nižším udávaným maximálním teoretickým výkonem.
            – Taky se říkalo, že skutečný potenciál architektura GCN (AMD) neukazuje ve hrách, ale ve výpočetních aplikacích.
            – Nebo varianta: Nvidia měla výhodu v tom, že má GPU architekturu optimalizovanou hry, ne zaměřenou na hry i GPGPU… dneska tomu označení odpovídá spíš RDNA 2 (u kterého je podpora OpenCL zdá se dost neprioritní, ne že bych si myslel, že je to dobře).
            – Nižší versus vyšší spotřeba u navzájem si konkurujících modelů grafik…

            A teď tu nedávno někdo říkal, že Ampere má obrovský potenciál k undervoltování, což tuším bývalo někdy vysmívané, když se tím obhajovaly grafiky AMD 🙂

            Možná by se daly najít i další podobné body, já si to v zimě poznamenával pro bilanční článek, ale ten pak nebyl, no 🙂
            A teď nevím, kde ty poznámky mám, protože jsem bricknul desku v PC a jedu na rezervním/půjčeném PC (s Intelem, dokonce…) Taky směják 🙂

            Jedno teda zůstává stejný, i když se argumentace fanoušků „proč/proč ne“ úplně otočily. Nvidií se vždycky prodá ikskrát víc…

            • pod čarou zajímavé zamyšlení, ale i když se často zdá, že je to „to samé“, není to to samé … v některým detailech ano, ne jako celek … podvoltovat ampere a ztratit 2% výkonu, resp. podvoltovat vegu a ztratit 20% atd atd … amd má výhodu lepšího procesu, tím pádem mnohem vyšší frekvence při nižší spotřebě, předtím byly, myslím, ty procesy stejné u obou … amd mělo „fičůry“, které často ani nešly využít, u nvidie tomu tak není … a jsou asi další věci … nechci se v tom rýpat, nevyužívám je, nerozumím jim do detailu …

            • Když to v 4K v jedné z pro mě klíčových her žralo pod 130W při 60FPS, FHD to zatíží ještě méně.

              žádné podvoltování ani nic takového, bohatě stačí VSync. Ta karta prostě nebude zatížená. Na nějaké nastavování voltážd, taktů mě nenapadne. Už od té GTX1080 mě nenapadne grafiku taktovat. Od března, kdy mám nový základ PC mě nenapadne taktovat cokoli v počítači, díky tomu člověk ušetří, protože může v zít v podstatě to nejlevnější.

              A jestli je to efektivní využití karty za 700 dolarů. ANO. Pro mě je třeba Macbook Air s M1 dokonalý laptop. Po zkušenosti s tímhle strojem je u mě pasivně chlazený laptop MUST have požadavek. Dřív jsem záviděl ženě laptop pasivně chlazený, ale nikoli výkon, Intel Atom, i když Gemini Lake, tak se nemůže rovnat běžným Core. M1 má CPU na úrovni i5/R5 z desktopu a to je přesně můj sweet spot, luxusní výkon na všechno co dělám. Můžu mít stejně výkonný laptop levněji, ale to ticho stojí za příplatek.

              Proto i moje PC je vyladěné na ticho. 10400F v zátěži jde i lehoučce nad 70 stupňů, ale větrák na Freezer 34 a větráky v miniATX skříni točí jen 400 rpm., klidně bych to mohl držet na 50 a cca 800 otáčkách, ale proč. CPU může jít až na 100 při 400rpm o tom PC vím jen když mám ucho do 10cm od bedny, jinak žádný vnímatelný projev i když se soustředím, v noci v max. tiché místnosti se zavřenými okny. Cvaknutí spínače ve zdroji je třeba to jediné jak poznám že PC vypne.

              Mít v tom grafiku co bude točit tak malé otáčky že nebude hlučnější než ty ve skříni, nebo poběží pasivně je pro mě vlhký sen. Dokázal bych dosáhnout stejného ticha při hraní jaké teď dosahuji s Macbookem Air a GeForceNow.

            • „Když to v 4K v jedné z pro mě klíčových her žralo pod 130W při 60FPS, FHD to zatíží ještě méně.“
              No může a nemusí, těžko to vědět jistě bez vyzkoušení, jde o to, jak se ta karta dokáže chovat v nízké zátěži. Ono mi jde hlavně o to, že u RTX 3080 je 100 W už docela malé procento z její standardní zátěžové spotřeby (pod 33%). A tam právě pak nemusí být to škálování energie dolů už tak dobré, protože se může ukázat, že některé části spotřeby jsou víc fixní a méně variabilní vzhledem k míře zatížení GPU. Uncore čipu, PCIe 4.0 řadič, paměťový subsystém nebudou IMHO škálovát dolů se spotřebou lineárně se zatížením. Něco jako u těch čipletových CPU od AMD – když zatížíte všechny jádra, tak na jedno připadá i míň než 10 W spotřeby, paráda… Ale při mírné zátěži, která ani úplně nevytěžuje turbo na jednom jádru, budete klidně v desítkách wattů, protože uncore, paměťový řadič a infinity fabric přidávají vždycky skoro úplně fixní porci spotřeby která se pod plnou zátěží v tom TDP/PPT schovává, ale pod nízkou zátěží najednou bude patrná.

              Na druhou stranu těch 100 W pořád není třeba 50 W (tam už bych teda pochyboval dost). Asi by to bylo zajímavé vyzkoušet, seškrtit tu spotřebu a koukat, kolik výkonu zbývá, nebo kam až to má smysl a kde už je lepší přesedlat na lehčí GPU. Trošku si říkám, že by třeba pro tohle mohly mít lepší potenciál karty s GDDR6 než s GDDR6X…

            • Jan Olšan, gogo1963,
              Pozoruji prakticky to same.
              Polarisky byly vytocene kvuli vykonu a za efektivnim pasmem fungovani, pak to same zopakovala Nvidia s RTX 20×0 a castecne i s RTX 30×0, takze bych se ani nedivil, kdyby podvoltovani Ampere davalo krasno spotrebu pri ne tak velke ztrate vykonu.

              komplik
              S tou M1 souhlas, na kancelarske prace se zdaji byt vsechny ostatni CPU jako vysmech. Skoro 2 dny na baterce, vcetne video hovoru, tichy a navic i chladny povrch. Tam kde mi s Intelem sjela baterka o 50-60% za hodinu, mam s M1 -3%. Tam, kde potrebuji vykon a virtualizovat, radeji pouziji poradne zelezo ze sertverovny, nez si to cpat „pod prsty“.
              Ale kdyz uz jsme u toho, ma nekdo tip na vykonny a tichy herni notas? Asi ted nema cenu nic porizovat, pred prichodem novych CPU, ale spis me zajimaji zkusenosti s nejakou rozumne udelanou radou.

            • podle toho co myslíš herním … pokud sem tam něco, cokoliv od dellu s tříletou NBD, pro jistoru, 😀 pokud nějaké seriozní hraní, pak hrubý velký speciál se čtyřmi větráky a velkými průduchy na celé spodní straně … ale to je ranec … ohledně tepla pak asi lepší s Ryzenem a nějakou 3050ti, 3060 …
              třeba legion s Ryzen 5 5600H + 3060 koupíš za 27k, ale bude to asi funět 😀

            • Tak HW to asi dokoazu posoudit, vcetne toho potrebnho chlazeni, ale spis mi slo o zkusenosti. Trbe ajako ze model od ABC od XYZ je papirove krasny, ale hrozne se hreje a huci, zatimco KLM je tichy a jen o 10% pomalejsi… Neco takoveho.

            • pokud herní, hřát a funět bude na 100% všechno, akorát něco víc, něco méně … vím, co máš na mysli, pokud máš zájem, jukni na „notebookforum“, tam se dozvíš víc …

  3. 2Komplik
    Se zajmem jsem si precetl vase komentare. (vetsinou dost trefne). Libi se mi, jak kazdy z nas ma sve pozadavky. Jestli mate to PC opravdu tak tiche, to bych i chtel videt. Co mate za skrin? Kolik vetraku celkem ve skrini?
    To ja jedu uplne jinou filosofii 🙂
    VYYYKOOOOON za kazdou cenu. Takze, CPU mi zere az 180W (rendering), pri hrani cca 20-80W. Ryzen 1600AF@4ghz
    GPU mi bere stabilne 160-220W podle hry a zda mam zapnuty VSYNC nebo ne. Tady potvrzuji, ze i pretocena karta dokaze zrat mene, pokud zvlada hru s VSYNC. Napriklad War Thunder na Ultra ve FHD se karta sama flaka na 1600mhz a drzi 75fps (muj VSYNC). Pritom v narocnejsich hrach, co jsem ji OCnul boostuje az 2050mhz, mem 8800mhz. GPU 1070ti.
    Vetraky mam nastavene tak, aby cpu nemelo pri hrani her vice jak 65C a pri renderingu ne vice jak 85C.
    GPU 1070ti ac pretocena, nema nikdy pri hrani vice jak 72C.
    Dale jsem opatril regulovany vetracek na VRM zakladni desky a ve skrini jako takove mam celkem 5 vetraku (vetrak cpu nepocitaje) pro zajisteni dobre airflow.
    V idle je masina prijemne ticha, ale ne bezhlucna. Vite ze tam je. Pri hrani si obcas vsimnu zmeny rychlosti ventilatoru a zacne se pridavat maly sum. Pri renderingu ale 🙂 jdu do jine mistnosti XD

    Ac to neni muj naturel, obdivuji dobre poskladane tiche PC. Pouzil jste i nejakou vypln do pc bedny?
    Zdravim vas

    • Fractaly většinou výplně mají (po stranách), v define r5 mám dva větráky vepředu, jeden vzadu, nahoru nedávám, otáčky v zátěži max 1000, v klidu kolem 400, všechno PWM regulace, to samé na CPU 2x vrtule, sedím u toho skoro celý den od tří od rána, slyším jen větrák, který mi fouká do ksichtu a při hraní malinko graf kartu, protože teď mám slaboučkou 1050ti, dokud se neumravní ceny … mám ale 8 jádro 10700, i při renderingu nebere víc, než 140 watt, při hraní o něm nevím …

      • 2gogo
        Dekuji za prispevek. Netusil jsem, ze fractaly maji vypln v zakladu (posledni fractal po me nekdo chtel asi pred 6ti lety, lidi na pc bednach setri). Ano, bez PWM to dnes nejde ze? Take mam.
        Zavidim vam cpu. To kdybych mel, to by mi to ficelo jeste lepe.
        Ja jsem k ryzen presel z intel 7700K@5,2GHZ all core. Samozrejme byl po delidu a na vode.
        Jsem zcela v soku, kolik jsem se stejnou gpu ztratil FPS. Ten propad je prisernej. Ve vsech hrach to bylo o 20 az 200fps mene s novym Ryzen 1600@4ghz all core.
        V praci pri renderingu ovsem Ryzen oslnil. Mel jsem tu i ryzen 1700@4ghz a pro praci za ty penize pomerem cena/rendering vykon byl dost bozi.
        Mel jsem tu i ryzen 3100@4,6GHZ a to uz byla jina liga. Ten rozdil vykonu a v mhz oproti ryzen 1xxx je obrovsky. Dost mi pripominal me byvale pretocene 7700K.
        V soucasnosti pokukuji po Ryzen 5600. Ovsem k nemu i adekvatni gpu. A to je jak vime, problem. Takze upgrade se zatim nekona.
        Kolik boostuje vase cpu pri hrani her? Delate i OC? Nebo opak? Undervolt?

        • je to i7 bez K, mohl bych ho sice „přetočit“ přes BCLK, ale za cenu vysoké spotřeby … není důvod … v zátěži, pokud potřebuje všechna vlákna, jede na 4,6, pokud třeba jen 4, jede na 4,7 … většinou se ale fláká, hraji jen lotro a swtor, takže 2-4 jádra na 40-60%, zbytech chrápe … vlákna se hodí akorát když hraji „multibox“, tam makají všechny … na půl plynu … nerenderuji … v dnešní době se 5600 moc nevyplatí, je předražená (proti konkurenci), potřebuješ dobrou desku, rychlé paměti … pokud se víc renderuje, pak je lepší jít do 5900x … nebe a dudy

        • mibfox 11.7.2021 at 12:57
          Obecne by se asi dalo rici, ze na renderovani je lepsi vice jader (treba treba nize taktovanych), nez mene jader (vyse taktovanych). S Ryzen 3000 se situace zmenila i ve hrach, kde Intel predtim dominoval kvuli latencim a vyssim taktum.
          Ja bych asi sel do 5900x, nebo levnejsi 3900x (oboji s 12 jadry / 24 vlakny). Pro vase ucely bych v levnejsi variante volil spis 3700x, nez 5600x (skoro stejna cena) a v tomto pripade mi prijde 5600x zbytecne predrazena bez vyraznym vyhodam oproti 3k rade.

        • Dnešné procesory sú na rendering náročných činností
          slabučké ako čínsky čaj. Tým myslím prevzorkovanie
          ťažkých formátov 4K videa, poťažmo pokročilé
          úpravy fotografií vo vysokom rozlíšení .raw .tiff…
          Osobne sa teším na dve tohtoročné fajnovosti:

          a/ uvedenie fungl novej platformy Intel Alder Lake
          b/ uvedenie 30“ Apple iMac s M1X

          O Apple M1X čo-to preniklo, proti M1 má disponovať
          výkonom až o stovky percent vyšším…
          Z pohľadu audio nadšenca, fotografa a videografa,
          ku ktorým patrím, je už SoC M1 doslova malý
          zázrak…
          Minulé týždne som mal možnosť testovať dva
          počítače: 1. Apple mini Mac 4+4jadrá CPU,
          16 jadier AI, 8 jadier GPU, 16 GB RAM.
          2. Windows 16c/32t CPU, RTX 2080ti, 64GB RAM.
          Aspon jeden príklad za všetky – export videa po
          úpravách formátu 4K 60p 10-bit 200 Mb/s PCM
          stereo, HEVC, na výstupe to samé s rozdielom
          dátového toku 25 Mb/s.
          Rýchlosť, kvalita výstupu stejná, spotreba počítačov
          na zástrčke:
          PC 260 W, Mac 12W…
          Výkon a efektívnosť M1X bude zrejme patriť
          do ríše snov…

            • Hardwarovej enkodér (ASIC), no. Ty mají vždycky spotřebu do pár wattů.

            • Tak s tým nemôžem súhlasiť :
              – testovacie video musí obsahovať úpravy,
              prechody, efekty, titulky atď.
              To znamená zapojenie do činnosti CPU, GPU a v tomto prípade AI…

              – ktorý HW encoder pre desktop s príkonom pár Watt dokáže konkurovať
              spomínanej RTX2080Ti ?

            • mibfox 11.7.2021 at 16:10
              A pak je tam spousta veci, proc bych M1 nechtel. Jedna z nich jsou hry, dalsi treba virtualizace. Nemoznost rozsireni RAM, pri nutnosti swapu docela slusna likvidace SSD, vse pajene na desce. Vendor lock od hlavy k pate. Ale pokud se vejdete do rekneme Applem podporovanych prikladu pouziti, tak asi lepsi stroj z pohledu vykonu a sptreby nesezenete.

  4. Fíha chlapci, mám pre Vás vynikajúcu správu…
    O čom ste tajne snívali sa stáva skutočnosťou…
    Senzačné, už piate pokračovanie akčne-romantického
    seriálu o nenormálne prefíkanej dvojke IT
    borcov Magor + Trtko je tu…Tentokrát príbeh
    „Magor a Trtko zachraňujú AMDD“
    Tak šupito pre pivečko, buráky a jedém:

    Crng, crng, zvoní telefón na centrále AMDD s.r.o
    Haló, tu Rosalinda, kto volá ?
    Zdravím šéfka, tu Robo, máme strašný problém !
    Zas máš problém Robo ? No daj…
    Jój šéfka, všetci naši odberatelia ma bombardujú,
    že majú plné sklady Ryzenov a nikto to nechce…
    Robo, Robo s ničím si nevieš poradit, obvolaj
    všetkých, nech tie procesory dávajú zadarmo !
    No šéfka, vy ste ale hlavička, idem na vec…

    O pár dní.
    Haló šéfka, tu Robo, máme pruser, tie Ryzeny
    nikto nechce ani zadarmo, čo mám robiť ??
    Robo, ty ma už neser, si tak neschopný chasník,
    obvolaj všetkých odberateľov, nech ku každému
    Ryzenu zdarma prihodia ešte Radeonku zdarma,
    uvidíš tie mraky ľudí, jak to rozchytajú…

    O pár dní.
    Haló šéfka, vy ste génius, všetky Ryzeny aj
    Radeonky zmizli zo skladov po celom svete…
    No vidíš, Robo, to chce kreativitu, a teraz
    státisíce ľudí bude šťastných, že môžu
    používať náš špičkový hardwér…
    No šéfka, obávam sa, že to bude troška
    menej ako státisíce…Ono všetky tie sklady
    vyprázdnili len dvaja, nejaký Magor a Trtko
    z bývalého Československa…
    Fúha a čo stavajú nejaký hyper počítač ?
    Nie šéfka, nestavajú hyper počítač,
    Magor a Trtko stavajú bazén a aby ušetrili
    na betóne, tie naše čary hádžu do základov…