Čipsety s grafikou: nVidia 630i vs. Intel G33

Potřebuje postavit levný kancelářský, či obecně pracovní počítač? Líbí se vám nově docela levné dvoujádrové procesory Intel, jen nevíte, do jaké základní desky s nimi? Je už integrovaná grafika použitelná? Má ji lepší Intel, nebo nVidia? Vyznáte se v chaosu označení GMA a nForce?

Jablka s jablky, testovací sestavy

O nForce 630i či GeForce 7x00 + nForce 630i anebo o MCP73 (pořád mluvíme o tom samém) jsme na ExtraHardware.cz informovali už prostřednictvím dvou aktualit:

Nyní jsem měl možnost učinit velmi zajímavé srovnání s čipovou sadou Intel G33. Nvidia nechala postavit dva zcela identické počítače, lišící se jen základní deskou: v jedné najdete desku Intel Buffalo Creek s G33 a v druhé pak Gigabyte GA-73PVM-S2H s čipovou sadou GeForce 7100 + nForce 630i. Obě PC byla osazena v micro tower skříni Cooler Master Centurion 541.

Reklama

První rozdíly spatříte až při pohledu ze zadní strany. Zatímco deska Intel Buffalo Creek nabízí šest konektorů USB 2.0, tak Gigabyte s nForce 630i jen čtyři. To ale více než bohatě vynahrazuje konektorem HDMI a DVI s HDCP. Pohled na desky odhalí další velký rozdíl mezi čipovými sadami: Intel má klasický severní a jižní můstek, Nvidia dokázala vše nacpat do jediného čipu:

Zvoleným zdrojem byl Cooler Master RS-380 z nejlacinější série tohoto výrobce, vzhledem k ceně kolem 1 000 Kč a náročnosti těchto sestav to byl možná tako až zbytečný luxus:

 

Další rozdíly mezi deskami: Intel má podle mě účinnější pasivní chladič, Gigabyte umístil SATA konektory poněkud nechutně a deska s nForce má pouze dvě DIMM pozice pro paměti:

Jaká je tedy podrobná konfigurace těchto počítačů? Co budeme srovnávat? Obě dvě PC jsou osazena naddimenzovaným procesorem Intel Core 2 Duo E6550 (2,33 GHz, FSB 1 333), pro který mě kromě lobby Intelu napadají dva důvody použití: demonstrace podpory FSB 1 333 MHz u obou čipových sad a zvládnutí H.264 videa v plném HD bez vynechávání snímků (tento procesor by byl zhruba dolní hranicí). Má se však jednat o kancelář, levný pracovní počítač a s DVD-ROM mechanikou určitě ne stroj na Blu-ray a HD DVD filmy, takže tento důvod si zase sám vyvrátím.

Obě desky byly osazeny pouze jediným DDR2 modulem: tady se zase projevuje zájem Nvidie. Řadič nForce 630i je pouze jednokanálový, zatímco Intel podporuje dual channel. Nvidia tvrdí (resp. tvrdila na prezentaci MCP73 v září), že její výkon v single channelu je stejný jako u Intelu v dual channelu, jak to skutečně je, to si ukážeme za chvíli. V každém případě je dnes úspora 100 Kč oproti dvěma modulům DDR2 (1× 1 GB vs. 2× 512 MB) směšná. U Intel G33 máte stejně dost paměťových slotů na upgrade, problém by to byl jen u desek s nForce 630i.

Pokud bychom měli na nForce 630i postavit opravdu výhodnou kancelářskou (či pracovní, chcete-li) sestavu pro Windows Vista, vypadalo by nějak takto:

K tomu tedy připočtěte asi 2 200 Kč za OEM Windows Vista, v každém případě lze na samotném hardwaru ušetřit 3 000 Kč oproti demo sestavám a mít přitom optimálnější výkon (2 vs. 1 GB ve Windows Vista je opravdu nebe a dudy). V době stavby těchto demo sestav nebyl ještě dvoujádrový Celeron k dispozici, Pentium E2140 je však jen o pár stovek dražší.

A proč měním desku Gigabyte za Biostar? Jednak je asi o 250 Kč levnější a má (až na 4-pin 12V napájecí konektor) rozumnější rozložení komponent. Disk z řady AAJS je pak tišší, zdroj Fortron 60THN určitě není méně kvalitní než původní a přitom je mnohem levnější, mezi skříněmi Elite 340 a Centurion 541 nejsou až tak velké rozdíly v provedení, zato celkem podstatné v ceně...

Ještě jsem vám slíbil, že vám ukáži vliv dual channelu na výkon Intel G33. Sám jsem dva 512MB DDR2 moduly k dispozici neměl, naštěstí japonský PC Watch testoval takřka stejnou základní desku Gigabyte s nForce 630i (jen s písmeny UM v názvu a tedy s  o 30 MHz výše taktovanou GeForce 7150) ve srovnání s G33 deskou od Asusu (P5K-VM). Použitým procesorem byl Intel Core 2 Duo E6750. Srovnání je se staršími ovladači, než jsem měl já, přesto dobře ilustruje jen drobné navýšení výkonu v dual channel konfiguraci (zleva: 3DMark06, PCMark05, SYSmark 2007):

  

V aplikacích je to tedy nula nula nic, v grafických testech můžete potom Intelu 5 až 15 % připočíst, GMA 3100 kupodivu vyšší propustnost paměťové sběrnice využije.

Další články na téma: 
Oblíbené Tisk E-mail
Reklama

Komentáře

co je to za logiku...?

pokud chci levny ale dostatecne vykonny hw. poridim si preci AMD X2 4000 EE je za velmi pekne penize a desek s ati 1250 integr. grafikou je na vyber a take kolem 15 stovek s dph.

To je sice pravda, ale na druhou stranu je sposta lidí, kteří dávají přednost řešení od Intelu. Já osobně sice na poli low-cost počítačů dávám přednost AMD, ale ani konkurence na tom není špatně. Závěrem bych ještě dodal, že záleží na tom pro jaké účely bude sestava sloužit, jak Intel tak AMD má své pro a proti.

Přesně takové PC už tu máme (Athlon 64 X2 4000+ EE s AMD 690G), naměřím především grafický výkon a společně s nejlevnějšími diskrétními grafikami bude další článek. Také věřím, že X1250 bude o něco výkonnější než MCP73, uvidíme, zda se potvrdí...

vyborne i mne by opravdu zajimalo, zda se vyplati reseni za ty zhruba 2 tisice o ktere je nejlevnejsi intel drazsi nez amd.

navic uvazuji o tom, ze bych uz ja vyuzil dvoujadra - ale rozhodne to nebude CPU za 4 tisice! ale prave neco do 2tisic

Nejak sa mi nezda ten vykon integ. Intela v HL2 ,na svojom byvalom NB som mal intel GMA950 a HL som si zahral na 1280 so stretnymi a vyssimi detailmy bez problemov, tu v grafoch to ma problemy rozbehnut 3100-ka ? zaujimave...

Half-life jsem kdysi hrál na Geforce 2, která byla větší šunkou, než tyhle integrované. Záleží taky na tom, v jakém režimu to běží. Zrovna u HL2 se dalo vybrat Dx7,8,9, což mělo na výkon nemalý vliv.

a pokud máte DX9 kartu, tak nejen na výkon, ale i na obraz.
Přepínalo se to v konzoli tuším mat_dxlevel 90  (81, 80, ...) a třeba pro GeForce FX to byla jediná šance, jak být v HL2 rychlá (vynucením DX81 a vyhnutím se shaderům 2.0)

Jenže v HL2: Lost Coast je trochu víc technologií než v původním HL2. Výsledek byl prostě nějaký takovýto:
http://www.pclabs.gen.tr/wp-content/uploads/2007/07/690g_g33/lost-coast.jpg
Možná by to šlo nějak nastavit, aby to rozumně zobrazovalo slušné detaily a přitom nedělalo chyby, bohužel už tu žádnou Intel GMA nemám, Lost Coast je zadarmo, máte-li Steam, tak byste to někdo mohli zkusit a dát vědět.

Hlavní příčinou nekompatibility některých her a GMA x3100 jsou ovladače pro Vistu, u kterých intel nebyl schopen dodnes doplnit podporu pro HW T&L.
Ovladače pro WinXP už HW T&L podporují.

Já bych jen podotknul, že VGA výstup je pro rozlišení 1680 x 1050 a vyšší nevyhovující z důvodu "roztřeseného obrazu". DVI je v takovém případě nutností, pokud se nechcete dívat na duchy a podobné vady obrazu.

Tak toto skor zavisi na kvalite RAMDAC a prevodnikoch, pri kvalitnejsich kartach je takmer nerozoznatelny rozdiel, mozno trosku menej zive farby ale ked je pouzity menej kvalitny prevodnik, tak dochadza k podobnym artefaktom, napriklad na mojej integrovanej grafike, ked ju prepojim cez VGA tak je lavy horny roh rozmazany (na LCD!) ale cez GF6600 a VGA je cely obraz krasne ostry a pekny neroztraseny, zavisi od grafiky, neda sa povedat pausalne ze vga je na 1680x1050 nedostacujuce!

Myslím že dá, pokud máš kabel delší než pár centimetrů, tak jsou ty frekvence fakt vysoké a dochází k přeslechu a spreadu - prostě z principu nedostaneš dokonalý přechod mezi černým a bílým pixelem. Nedostatky RAMDACů jsou problém navíc, to je jasný

Ty si hrozny perfekcionista, pripominas mi nasich nadsenych audiofilov co povedia ze strieborny kabel so zlatymi koncovkami je o hodne lepsi, v skutocnosti keby ti niekto ukazal monitor napojeny z kvalitnej vga, a sucasne taky isty cez DVI mal by si velky problem zistit ktory je ktory hlavne ak by si mal pustenu povedzme hru alebo zobrazenu fotku a nie nejaky tester monitorov. Mam to odskusane a rozdiel je fakt minimalny

V tomhle bych se třeba já docela rád vsadit. Pár (desítek a možná stovek) monitorů i sestav jsem otestoval a řekl bych, že rozdíl mezi DVI a VGA poznám na monitoru s trochu vyšším rozlišením stporocentně. Stačí se podívat na písmo s vypnutým vyhlazováním - přes VGA je skutečně vidět "duchovitost", u dobrých VGA se projeví jen na následujícím pixelu, u těch mizerných i přes pár pixelů (a navíc obsahuje bílý glow). Na barvách se to ale automaticky poznat nedá - záleží na vyladění monitoru a měřič gamutu v oku nemám :)
 
Ve fotce ani 3D hře to poznat nebude, ty by (z principu či snahy programátorů) žádné ostré přechody obsahovat neměly. Na hry je to celkem jedno, na fotky bych kvůli barevnému rozsahu a možnosti přesnější kalibrace volil DVI.
 

Však já to nepsal paušálně, ale v souvislosti právě s integrovanými grafikami. Mám v tomto směru docela špatné zkušenosti hned s několika integrovanými čipsety, stejně tak s VGA výstupy na noteboocích.