Přejít na obsah [o] Přejít na navigaci [n] Přejít na vyhledávání [v] Přihlásit se
Hlavička
Gainward GTX 480 - nejvýkonnější jednojádrová grafika

Gainward GTX 480 - nejvýkonnější jednojádrová grafika

Recenze

Na nové grafické karty Nvidia a čipem Fermi čekal celý svět netrpělivě více než půl roku. Na trhu se zatím objevily dva modely - GTX 470 a GTX 480. My se dnes podrobněji podíváme na ten výkonnější, který je zároveň nejvýkonnější grafickou kartou od společnosti Nvidia na trhu.

Společnost Nvidia se v tomto roce potýká se situací, kterou předtím již dlouho nezažila. Její karty nejsou lídry trhu a dokonce až do příchodu GTX 470 a 480 neměla co výkonově a technologicky nabídnout proti konkurenčním kartám od společnosti AMD/ATI. Výkonné Radeony HD 58xx se totiž velmi povedly a vyšly poměrně brzy po předchozí sérii HD 4xxx. Série grafik ATI Radeon HD 5xxx byla uvedena na trh již na začátku října 2009, tedy již před osmi měsíci.

Omlouváme se, popis obrázku chybí.

Po personálních změnách na vyšších postech se Nvidia rozhodla razit nový směr na trhu grafických karet. Velké zaměření na vysoký výpočetní výkon, který lze využít zatím hlavně na trhu profesionálních karet, to jest nová cesta společnosti. Nezapomíná se ani na hráče. Nové čipy jen mají za úkol být použitelné ve více odvětvích, kde jsou počítače a jejich výkon nutné. Takové strategické rozhodnutí ale nelze technicky realizovat za víkend. Nvidia tedy v době, kdy ATI vydávala novou řadu grafických karet, byla stále u prvního pokusu (revize) o výrobu svého nového čipu.

Fermi - budoucnost architektury grafických čipů

Nový čip, který Nvidia poměrně rychle navrhla a dala do výroby, se jmenuje Fermi. Jedná se o grafický čip s novou architekturou. Podrobnosti si sdělovat nemusíme, o těch se dočtete ve specializovaných odborných médiích, avšak musíme zmínit, že Fermi je vlastně první vlaštovkou nového směru, kterým by se grafické karty měly v budoucnu ubírat. I konkurenční společnost AMD/ATI má totiž v plánech úpravu své architektury, která bude mít podobný směr, jakým u Nvidie začalo Fermi. To se však stane minimálně až po aktuálně připravované grafické řadě Radeon HD6xxx.

Omlouváme se, popis obrázku chybí.

Nemusíme si předem nalhávat, že Fermi je nějaký technologicky vytříbený a prakticky úžasný čip. Času na přípravy, navržení a výrobu bylo prostě málo. I tak ale první generace grafických karet s čipem Fermi přišla na konci března na trh. Modely GTX 470 a GTX 480 jsou určeny pro nejvýkonnější část grafického trhu. Ač někdo mohl čekat větší výkon, přinesly oba modely konkurenci pro aktuální Radeony konkurence. GTX 470 se zařadila do cenové hladiny mezi osmi až devíti tisíci korunami, GTX 480 pak mezi 12 až 13 tisíc. Jak jsou na tom s výkonem v porovnání ke konkurenci, se podíváme v dnešním testu.

Gainward GTX 480

Do dnešního testu jsme zařadili grafickou kartu Gainward GTX 480, tedy výkonnější z obou aktuálních modelů s čipem Fermi. Na GTX 470 zatím nedojde, ale nebojte, podíváme se na ní v některé z dalších recenzí.

Společnost Gainward je tradičním výrobcem grafických karet s čipy Nvidia. Po krátké epizodě s výrobou karet pro AMD/ATI, se vrátila zpátky k výrobě pouze pod znakem Nvidia. Firma Gainward aktuálně patří pod společnosti Palit, která vyrábí zajímavé a levné modely z čipů AMD/ATI. Ani Gainward se tedy neprofiluje jinak. Také nabízí grafiky od Nvidie za příjemně nízké ceny, o čemž se můžeme přesvědčit i při pohledu do ceníku, kde je aktuálně Gainward GTX 480 ze své série nejlevnějším modelem.

Gainward GTX 480 - balení a příslušenství

Krabice grafiky je poměrně strohá, se zlatým motivem a písmem. Nechybí zelený nadpis typu grafické karty a výčet hlavních použitých technologií.

Omlouváme se, popis obrázku chybí.

Zadní část je mnohem zajímavější. Grafická karta si samozřejmě poradí s nejnovějším API DirectX 11 a je plně kompatibilní s operačním systémem Windows 7. Mimo popisu podpory a využití DirectX 11 spolu s fyzikálními efekty PhysX najdeme i minimální systémové požadavky. Podle výrobce budeme potřebovat minimálně 600W zdroj, PCI-E konektor na základní desce a procesor Intel Pentium 4 či Athlon XP a vyšší. K výběru procesoru jen dodáme, že takto výkonné karty není vhodné párovat s ničím menším než moderními čtyřjádry či šestijádry, ať už od Intelu nebo AMD.

Omlouváme se, popis obrázku chybí.

V balení výkonné grafické karty najdeme tradiční příslušenství, které se skládá z intalačního CD s ovladači, redukce DVI na VGA (D-Sub) a propagačních letáčků. Navíc najdeme i HDMI kabel, který má jednu koncovku miniHDMI. Tento konektor se totiž nachází na zadní straně grafické karty jako obrazový výstup.

Omlouváme se, popis obrázku chybí.

Není toho mnoho, ale HDMI kabel navíc potěší. Více příslušenství se tak zřejmě dočkáme až u karet, které nebudou vycházet z referenční podoby.

Gainward GTX 480 - představení

Grafickou kartu najdeme a vyndáme z antistatického pytlíku a můžeme se podívat, jak vypadá. Asi jako první zaujme kovová destička na vrchní části krytu. Ta je zřejmě opravdu kovová, alespoň dle chladnosti při dotyku soudě. Její plochu zvětšují vylisované pruhy, které jsou ale celistvé, nemají průduchy. Destička tak zřejmě slouží k rozvádění tepla odváděného z karty. Pokud by to tak bylo, je jasné, že se nebude jednat o zrovna chladný kousek a dobré větrání skříně určitě pomůže.

Omlouváme se, popis obrázku chybí.

Jinak je karta poměrně podobná předchozím sériím, pro přiklad třeba GTX 285. Oproti ní a podobným má však navíc čtyři vyčnívající heatpipes trubičky. Chlazení se tak zdá být velmi kvalitní. Nechybí ani standardní ventilátor, který nasává vzduch ve skříni a fouká ho průduchem na zadním panelu ven.

Omlouváme se, popis obrázku chybí.

Na zadní straně karty vidíme velké množství elektronického vedení. Podle velikosti spojů na místě jádra, tedy mezi čtyřmi většími šroubky, můžeme předvídat poměrně velkou velikost čipu. Tu si necháme do technické části článku. Možná škoda je, že paměti nejsou na druhé straně karty, ale přímo pod chlazením. Není tak možné je chladit zvlášť přídavnými pasivy, což by se při přetaktování mohlo hodit. Na místě ventilátoru jsou dva čtvrtkruhové otvory pro nasávání vzduchu.

Omlouváme se, popis obrázku chybí.

Vedle heatpipes směrem k zadní části karty jsou průduchy, kterými vidíme část pasivního chlazení pod krytem. Pod otvory jsou konektory pro propojení dvou či více grafických karet Nvidia do módu SLI.

Omlouváme se, popis obrázku chybí.

Konektory pro napájeni jsou na konci karty, na straně kde jsou vidět heatpipes. Jsou to dva PCI-E 8pin a 6pin. Pro napájení tedy potřebujeme lepší zdroj, který tyto konektory obsahuje. Výrobce doporučuje minimálně 600W, což je odpovídající vzhledem k tomu, že ostatní komponenty asi nebudeme s takovouto kartou mít podprůměrného výkonu.

Omlouváme se, popis obrázku chybí.

Zadní panel je osazen třemi výstupními obrazovými konektory. Obsahuje dva digitální DVI a jeden miniHDMI. Podle internetových zdrojů byl miniHDMI použit místo běžně velkého HDMI kvůli své velikosti. Normální HDMI by se již zřejmě nepovedlo vedle dvou DVI vyvést i vzhledem k tomu, že průduch, ze kterého jde teplý vzduch z karty ven je potřeba zachovat o velikosti jednoho slotu.

Gainward GTX 480 v detailu

Na grafickou kartu Gainward GTX 480 se podíváme ještě dvěma detailními obrázky.

Omlouváme se, popis obrázku chybí.

Obrázek ukazuje jádro a jeho okolí na zadní části grafické karty. Jsou vidět obdélníkové obvody použitých pamětí. Na jednom šroubku je také samolepka, která chrání záruku produktu. Při jejím odstranění dojde k porušení záručních podmínek, což ale vzhledem k použitému výkonnému chladiči moc vadit nemusí.

Omlouváme se, popis obrázku chybí.

Detailní pohled na napájecí část zadní strany karty. Na papírových samolepících štítcích je vypsán typ karty, použité paměti a osazení výstupních obrazových konektorů. Najdeme také sériové číslo s čárovým kódem a pokyn, že ani tyto samolepky se sundávat nemají.

Technické specifikace

Teď se podívejme, co vlastně GTX 480 je po technické stránce. Jádro GTX 480, o kterém jsem se již několikrát zmiňoval, má označení GT100. Jeho základní frekvence je 700MHz, je vyráběno 40nm výrobním procesem a ve velké ploše přes 500 milimetrů čtverečních se skrývá neuvěřitelných 3,2 miliardy tranzistorů. Asi každého toto číslo udiví. Však při tak velkém čipu s problémy, které měl a má výrobce čipů, společnost TSMC, s 40nm výrobním procesem, nebylo lehké takový čip vyrobit. Původně měl mít dle návrhu 512 stream procesorů. Kvůli problémům s výrobou se však oficiální specifikace snížila na 480. To však na zákazníky vliv nemá. Všechny čipy, které se dostanou do prodeje jsou kvalitní a plně funkční.

Však se tento problém netýkal jen čipu Fermi. Jelikož se grafické čipy Nvidia i AMD/ATI vyrábějí u společnosti TSMC, problémy s nedokonalostí výrobního procesu mají také větší čipy ATI s označením Cypress, tedy ty, které najdeme v Radeonech HD 5850, HD 5870 a HD 5970. Ale zpátky k GTX 480. Paměti jsou osazeny nejnovější GDDR5 o frekvenci 3696MHz. Jejich celková velikost je 1596MB. Sběrnice pamětí má 384-bit. Samozřejmá je podpora nejnovějšího DirectX verze 11, stejně jako Shader modelu 5.0. Délka karty je 27 cm a vejde se tak do middletower skříně, pokud nejsou k místě karty zapojeny pevné disky otočené směrem do skříně. Na výpis specifikací a porovnání se starší GTX 285 a také s aktuální konkurencí se podívejme v tabulce.

Omlouváme se, popis obrázku chybí.

V tabulce se GTX 285, HD 5850 a HD 5870 neobjevují jen tak. V dnešní recenzi Gainward GTX 480 totiž dojde právě na porovnání těchto čtyř karet. Co v tabulce možná není je to, že grafické karty Nvidia podporují fyzikální model PhysX, jehož efekty můžeme v mnoha hrách najít. Pojďme se ale už podívat na testy.

Testovací sestava

Jelikož jsme dnes dostali do ruky jednu z nejvýkonnějších grafických karet na trhu, rozhodli jsme se testovat ji na tom nejlepším, co trh nabízí. Zároveň jsme vybírali rozumné řešení, které se ke kartě dá pořídit, nehnali jsme se do extrému v podobě produktů s přemrštěnou cenou. Testovali jsme na této sestavě:

Omlouváme se, popis obrázku chybí.

Pro výkonné grafické karty je potřeba výkonný procesor, který dokáže zpracovávat všechny jejich požadavky na systém. Core i7-930 je ideální volba. Ze základních 2,8GHz jsme ho přetaktovali na 3,5GHz, což jde více než lehce. K tomu jsme přidali hodně oblíbenou základní desku Gigabyte pro socket 1366 s čipovou sadou Intel X58. Operační paměti jsme zvolili kit 3x2GB kvůli tříkanálovému řadiči pamětí v procesoru. Rychlý pevný disk Samsung F3 500GB a zdroj Corsair HX750 jsou již standardním vybavením testů.

Herní testy

Pro testování grafické karty Gainward GTX 480 jsme vybrali pět oblíbených a technologicky velmi pokročilých her. Někoho bude asi zajímat, proč není obsažen nějaký teoretický benchmark typu 3DMark Vantage či Unigine Heaven. U 3DMarku je to jasné - nedává žádné praktické výstupy a jeho výsledky neodpovídají výsledkům karet ve hrách, pro které jsou primárně určeny. Unigine Heaven je sice moc hezký tester grafických karet s DirectX 11 s podporou tesselace, který rozhodně majitelům grafik podporujících DX11 doporučujeme vyzkoušet, ale opět si ho zahrát nemůžeme a pro reálné využití nám neřekne nic.

Testujeme v rozlišeních 1680x1050 a 1920x1200. Karty sice zvládají i vyšší rozlišení pro 30" monitory, avšak takové velikosti domácích monitorů zatím nejsou příliš rozšířené a jejich testování by bylo spíše zajímavostního charakteru. Pro testy jsme vybrali čtyři jednojádrové grafické karty. GTX 285 je nejvýkonnější předchůdce GTX 480 a HD 5870 a HD 5850 jsou blízkými konkurenty GTX 480. GTX 285 nepodporuje standard DirectX 11, a proto je při testování nastavení vždy bez efektů tohoto rozhraní. Tak a jdeme na slíbené hry.

Crysis Warhead

Není test grafických karet, kde by tato hra chyběla. Jedná se sice o starší kousek, avšak svou grafickou stránkou hry stále překonává většinu těch aktuálních. Podporuje DX10, se kterým také testujeme. S rozvojem nového standardu DirectX 11 sice přestane být již tak aktuální, ale teď je stále zajímavé na něm karty testovat. Je to hlavně proto, že engine je velmi náročný a při maximálních nastaveních je hra hratelná jen na nejvýkonnějších strojích. Testujeme na nastavení hry Gamer s dvojnásobným antialiasingem.

Omlouváme se, popis obrázku chybí.

Far Cry 2

Hra Far Cry 2 také není tou nejnovější ze seznamu, avšak stejně jako Crysis Warhead je hojně testována. Je postavena na DirectX 10 a pro testy používáme detaily na Ultra High s 4xAA a 8xAF.

Omlouváme se, popis obrázku chybí.

Battlefield: Bad Company 2

Trhák posledních měsíců. Tato hra sklízí úspěchy hlavně díky své velmi povedené grafice v moderním stylu s DirectX 11 stejně jako díky destrukčnímu modelu, který je opravdu maximální. Zničit se dá skoro vše a to se hráčům více než líbí. Testujeme s čtyřnásobným antialiasingem a osminásobným anisotropním filtrováním.

Omlouváme se, popis obrázku chybí.

Colin McRae: Dirt 2

Při testování nemůže chybět závodní pecka Dirt 2. K jejímu vytvoření bylo opět použito DirectX 11 efektů a celkový dojem ze hry je výborný. Herní nastavení je 4xAA a 16xAF se všemi efekty zapnutými, případně nastavenými na maximální úroveň.

Omlouváme se, popis obrázku chybí.

Metro 2033

Nejnovější hra z testovaných je Metro 2033. Atmosférická střílečka z ruského metra v postnukleárním světě je aktuálně velmi oblíbená. Přináší rozvoj v použití standardu DirectX 11 i s tesselací. Testujeme v módu AAA na Very High detaily s 8xAF.

Omlouváme se, popis obrázku chybí.

Hodnocení testů

Jistě jste si všimli, že jsem u testů nepsal hodnocení. Stačí ho totiž udělat souhrnně. Testy ve všech pěti aktuálních hrách přinesly vždy stejné pořadí testovaných grafických karet. GTX 480 je jasně nejvýkonnější jednojádrovou grafickou kartou současnosti. Na HD 5870 má náskok do 20 procent dle hry. Nejnižší rozdíl mezi nimi je ve hře Battlefield. Je taktéž zajímavé, že rozdíly výkonu ve většině testů jsou mezi kartami velmi podobné. Celkově také z testů vyplývá, že testované karty jsou výkonnostně velmi hezky rozčleněny a od GTX 480 jsou průměrné rozdíly v celkovém výkonu okolo 10 až 20 procenty.

Provozní vlastnosti - teploty a spotřeba

Aby byl test kompletní, je potřeba si změřit teploty a spotřebu grafických karet. Teploty jsme odečítali z programu GPU-Z. Jednou se tak dělo při spuštěných Windows 7 Ultimate, tedy bez zátěže, podruhé jsme nechali karty pěkně rozpálit v programu FurMark a po přibližných 10 minutách jsme odečetli teploty jádra.

Omlouváme se, popis obrázku chybí.

V průměrně větrané skříni typu Bigtower (přesně model CoolerMaster Stacker 831 SE), kde byl nainstalován přední a zadní 120mm ventilátor dosahovali teploty karet vysokých hodnot. Obecně grafické karty vydrží teploty okolo 100°C v pořádku a bez problémů, více už by dobré nebylo. Ani jedna karta této hodnoty nedosáhla, GTX 480 se této hodnotě pouze přiblížila.

Omlouváme se, popis obrázku chybí.

Spotřebu jsme měřili opět v klidu a v zátěži. Naměřené hodnoty jsou zajímavé. Nečekaný je rozdíl mezi spotřebou HD 5850 a HD 5870 v zátěži. Ač karty mají hodnoty TDP, tedy maximální spotřeby poměrně podobné, v testu se nám rozdíl pohyboval nad 40W. GTX 480 si pak bere poměrně hodně, což je ale oceněno nejlepším výkonem ve všech testech. Je pravdou, že rozdíl 150W oproti konkurenci je docela hodně, avšak kdo si takovou kartu koupí, asi moc spotřebu sestavy neřeší. V klidu jsou pak rozdíly menší a všechny karty se se sestavou v pohodě vejdou do 200W.

Nesmíme zapomenout ani na hlučnost karty. Ta je při maximálním zatížení v programu FurMark poměrně vysoká, což se ale dá říci i o ostatních testovaných kartách. Takového zatížení při běžném použití nedosáhneme. V klidu je karta v podstatě neslyšitelná, stejně jako její testované kolegyně. Při hraní se pak stává slyšitelnou, ale v zavřené skříní nijak neruší.

Hodnocení a závěr

V dnešním testu jsme si představili grafickou kartu Gainward GTX 480 s nejnovějších grafickým čipem Fermi od společnosti Nvidia. Jedná se kartu nejvyššího segmentu, která nám dává nekompromisní výkon. Z testů jsme zjistili, že se jedná o nejvýkonnější jednojádrovou grafickou kartu na trhu, kterou dle ostatních testů na internetu překonává pouze ATI Radeon HD 5970, která však má grafické čipy dva a stojí více.

Omlouváme se, popis obrázku chybí.

Ze zkušenosti můžeme grafickou kartu Nvidia GTX 480 doporučit těm zákazníkům, kteří hledají jedno z nejvýkonnějších grafických řešení na trhu. Pokud máte rádi produkty společnosti Nvidia, není v případě výběru výkonné grafiky co řešit.

Grafickou kartu Gainward GTX 480 naleznete v našem obchodě (zde).

Ohodnoť článek:

Názory ostatních Geeků (128)

Počet čipů - OMG

záleží snad na počtu čipů? koncového zákazníka by mělo zajímat jen cena a výkon (vlastnosti), ale architektura je složitá věc, do které by musel být čtenář nejprve zasvěcen, aby pochopil.. ne vždy je lepší dělat menší čipy, ale rozhodně neznamená, že dvoučipová karta je špatná.. tak na mě totiž působí formulace "která však má grafické čipy dva".. to je jedno, pokud její cena je úměrna výkonu a ne jako v případě poměrně předražených Fermi..počet jader a jejich struktura je čistě problém výrobce, ale to, že se jedná o grafickou kartu se nezmění ani při 4řech čipech, takže by se to nemělo považovat za jakkoliv významný jev.ano, je pravda, že jádro nVidie je výkonnější, ale je také větší (o tom se nikde nepíše) a proto ATi dává dvě menší.. výkonnostně je to sice, pravda, horší řešení v přepočtu na počet jednotek, ale důvod, proč se to tak vlastně dělá je výroba. kdyby byl 40 nm proces 100% bezchybný, nVidia by měla výhodu, takto se ale jedná o čip, který je téměř nevyrobitelný a se spoustou chyb, tedy ovlivňuje to jeho výkon i vlastnosti a životnost, ale hlavně cenu..problém je v tom, že ze stejného waferu při chybě na stejném místě, kdy ATi na plochu 4 nVidia čipů dá 9 svých, jedna chyba znamená amen jednomu čipu nVidie, ale jen jednomu čipu ATi, takže zatímco nVidii jedinou chybou (a že jich rozhodně je více), nVidie ztratí čtvrtinu zisku, zatímco ATi jen devítinu.. a to je fakt, který ATi přiměl k výrobě meších čipů.. je to méně výkonné, ale ona jich vyrobí početně více než dvakrát tolik ze stejného zdroje a tedy může si dovolit ze dvou vytvořit jakoby jeden, čímž získá ještě větší výkon, než má jedno velké jádro a přitom neztratí stále tolik produktu..a ve výsledku je podstatné jen to, že HD5970 je prostě nejvýkonnější grafika světa, která má spotřebu o málo větší než druhá nejvýkonnější grafika světa, GTX480, má o poznání vyšší výkon, stojí úměrně více, podporuje stejné technologie, avšak má mnohem lepší provozní vlastnosti a vyšší životnost a schopnost taktování.. přidám k tomu třetí nejvýkonnější grafiku světa, HD5870, ta má lehce menší výkon než GTX480, přesto stojí razantně méně a má razantně lepší provozní vlastnosti včetně teplot a při přetaktování, pro které narozdíl od GTX480 prostor má, se stává vyrovnaným soupeřem, který má ale stále lepší provozní vlastnosti a stále stojí méně. čtvrtou nejvýkonnější je pak GTX470, která by se přetaktováním dostala na úroveň HD5870 (cenu má stejnou už teď), ale jelikož je to zmetkové jádro které pro GTX480 nešlo použít, obával bych se stability přetaktování stejně, jako dosažení stejných limitních hodnot vlastností, které má GTX480..objektivně shrnuto, GTX480 je jistě nejvýkonnější jednočipovou grafikou, ale koho zajímá, kolik má čipů, když má horší provozní vlastnosti, než dvojčipová HD5970 a přitom je horší i ve výkonu? GTX480 je možná nejvýkonnější co se čipu týče, ale rozhodně není nejvýhodnější.. srovnáme li pro a proti, jeví se mi jako nejvýhodnější grafika HD5850, jelikož výkonu má dost, nestojí extrémní peníze a rozhodně se nejedná o radiátor..co se GTX480 týče, k čemu ta grafika je? kdo chce ultimátní výkon, volí HD5970 x2, kdo chce více monitorů, volí ATi, protože GTX potřebují 2 grafiky což poměrně velmi ztěžuje možnosti chlazení, kdo chce nVidii, volí nVidii, ale nevolí rozumem.. ne dnes.. kdysi platilo, že envidia = závist

@TOBiAS02: Myslim že tam, kde nefunguje spolehlivě SLI nebo Crossfire je počet čipů na kartě celkem důležitej protože tam běžej i dvoučipový karty jako jednočipový.

@Petr_Nový: teď nevím, jak to myslíš, ale x2 grafiky jsou vlastně CF/SLI samostatně na jedné kartě..pokud ale počítač detekuje kartu jako jednojádrovou, je to jedno, protože dělení pro jádra obstarává CF/SLI můstek na kartě, kde ve výsledku se stejně potí oba čipy..smozřejmě škálování tohoto systému není dokonalé a znamená ztráty ve výkonu, jenže ztráty ve výkonu jsou stále menší, než ztráty v zisku (produkci).. to je důvot, proč to ATi vychází a nVidia je ve srabu - nVidia udělala očividně hodně dobrý čip, ale ten čip není možné vyrobit současnými prostředky.. nVidia by se na to měla vykašlat a investovat do tvorby čipu nového, pro generaci 28nm, místo ztrapňování se lhaním kolem Fermi jen aby zvedla prodeje..

@TOBiAS02: Teoreticky s tebou souhlasim, ale v realu je to tak že opravdu někdy i dvoujádrová grafika (jedna s dvěma čipy nebo CF/SLI) nejede na obě jádra. Často to vyřešej ovladače ale né vždycky. Navíc se pamět grafik nesčítá a když koupíš HD5970 tak nemáš 2GB jak se uvádí ale jenom 2x 1GB na grafice.

@pavel.martinovsky: ano, logicky.. každé jádro má pro sebe k dispozici 1GB paměti..zatím jsem se nesetkal s případem, kdy by CF/SLI na grafice vůbec nefungovalo, spíše má odlišné škálování - někdy je výkonnější, někdy ne, to vše ale mají na svědomí ovladače.. v 99% případů alke bude hD5970 prostě nejvýkonnější grafikou.. ono to bude ve 100%, protože jde o hrubý výkon hardwaru... druhá věc je už ale ten hardware využít a to není problém jen na straně vývojářů programů a her, ale také na straně ovladačů, to uznávám..

@pavel.martinovsky: jak sám říkáš - dvoučipovka má jisté nevýhody, ale jednočipovka s velkym čipem taky, extrémní spotřebu a zahřívání (spotřeba = vyzářená energie - pár mW která se přeměnily na signál monitoru a pohon fanu), s tím související nízkou životnost a dvouletou záruku garantovanou jen evropskou unií.. větší čip je stále horší v teplotě a slabší na výkonu, než dvojice malch čipů, jejichž škálování nepřesahuje 50% jednočipu..

@TOBiAS02: Dobrý den,některé Vaše názory jsou hodně jednostranně podané, ale alespoň zkusím reagovat na ty věty, které mě zarazily. V tomto příspěvku spojím odpověď na všechny vaše příspěvky.O tom, že je jádro Fermi výkonnější, ale také větší, je v článku napsáno, takže se o tom píše. Podle měření má 529mm^2. Tento přesný údaj jsem díky vaší reakci nalezl. V tabulce je přibližně 500mm^2. Ve stejném odstavci píšete a vysvětlujete úplně to samé, co je popsáno v podrobněji v článku.Hezky také popisujete chyby při výrobě čipů, avšak kdyby to bylo tak lehké jak popisujete, tak z pásů nevyjede skoro ani jeden čip a TSMC může rovnou vyrábět čipové suvenýry. Jedna chyba rozhodně nedělá s čipu zmetka. Opět je popsáno v článku, že právě kvůli horší výrobě nebylo možné prodávat jádra Fermi s 512 jednotkami, ale jen 480. Podle kvality daného kusu čipu se posuzuje, do jaké grafiky bude umístěn. Zanedlouho přijde i GTX 465 a ta bude mít jen polovinu jednotek při stejně velkém čipu, takže je to sice těžké vyrobit úplně správně, ale čipy s pár chybnými sektory se také prodají dobře.Dále píšete, že HD 5970 má vyšší spotřebu než GTX 480, což pravda také není. Co se týče přetaktování tak ano, GTX 480 vzhledem ke svým teplotám nejde o moc více, avšak jen málé procento zákazníků taktuje, takže považovat to za zápor může jen ten, kdo prostě taktovat chce. Ten si pak koupí HD 5870. Ostatním je to jedno.Nikde není psáno, že je GTX 480 nejvýkonnější grafickou kartou. HD 5970 je ve většině her určitě lepší. Což přímo směřuje k další mýlce a to té, že jste ještě nezažil, že by SLI/CF na grafice nefungovalo. To víte, že nefunguje a to dost často. Neb SLI/CF je právě v případě vámi zmiňované HD 5970 přímo závislé na ovladačích, které musí hru podporovat. Každou chvíli tu pak máme nové hry, kde je HD 5970 dokonce pomalejší než HD 5870, neb ovladače pro ni zatím nejsou. A ano, reakce AMD/ATI je hodně rychlá a do pár dní už to vše funguje, ale říci, že jste se s tím nesetkal znamená, že tu kartu nemáte, nebo máte a hrajete své oblíbené starší hry a nezkoušíte ty nejnovější.I přes spontánní styl vašeho psaní děkuji za podněty.František Novák - redakce CZC

@František Novák - CZC: Kam se pod to muzu podepsat?

@ROMAN SOVA: Dobrý den,děkuji za uznání. Avšak možná škoda, že souhlasíte se vším. Diskuze o podobných tématech bývají zajímavé, pokud diskutující řeší neshody či doplnění věcně. Když byste s něčím někdy nesouhlasil, tak to také napište, ať máme co zlepšovat a řešit my.Děkuji,
František Novák - redakce CZC

@František Novák - CZC: Já se do podobných flame nepouštím, ale přesto mne svrběly prsty, jsem rád, že jsem vydržel číst až sem a nemusím to psát sám. Jedna drobná výtka slovíčko "neb" = "neboť" a je má tedy jiný význam než "nebo".
To jen aby ten souhlas nebyl bezvýhradný ;-)

@Anonymní uživatel: Dobrý den,v článku slovíčko "neb" ani jednou není, v komentářích ho používám dvakrát a pokaždé ve smyslu "neboť". Co máte přímo na mysli?S pozdravem,
František Novák - redakce CZC

@František Novák - CZC: Sakra a co mám pak vytknout ;-)

@František Novák - CZC: Zdravím, Pane Novák,
velmi mě těší Vaše reakce jako zaměstnance CZC..
dovolím si se trochu obhájit, než začnu oponovat - jsem tak znechucen neustálým omýláním kravin okolo Fermi, že žádné články (ani tento) nečtu celé.. chtěl jsem, abych se ujistil, zda se tam o něčem, co jsem řekl, nemluví, ale při té délce jsem ztratil chuť.. kdyby se takto sáhodlouhé články psaly i o konkurenci, bylo by to zde alespon férové, ale nějak mi uniká, že s poměrně ztracenou Fermi si dáváte tolik práce ale o Radeonech píšete pár odstavců..vezmu to popořadě:
-velikost - musím se omluvit, opravdu jste ji zmiňovali, to je chyba na mé straně.-výroba čipů - ano, vědomě jsem to velmi zjednodušil, protože se jedná o poměrně komplikvanou věc.. v praxi to ale opravdu dopadá tak, že i s menším počtem linek, AMD produkuje VÍCE NEŽ DVOJNÁSOBNÝ počet RV870, než nVidia konkurenčních GF100 a tedy pokud staví na dvojicích, je z nich stále schopna postavit více grafických karet za pro ATi stejnou cenu a pro výrobce a uživatele vyšším výkonem - v tom je jádro celých finančních rozdílů - kdyby bylo jádro GF100 lépe vyrobitelné, situace by mohla být opačná - vyrobili by stejně ale ATi by udělala jen polovinu výsledných grafik s vyšším výkonem a stejnou cenou (čipů) a pak by nVidia měla prostor konkurovat cenou, hlavně by ale měla dvojnásobný počet grafik do prodeje.-spotřeba HD5970 - nechtěl jsem být tak jednostranný a ješitně říkat, že je ATi naprosto nejlepší.. v těch spotřebách, pokud vezmeme vpotaz papírové TDP, nVidia má menší, reálně však podle některých testů má více, podle některých méně, je těžké se v tom orientovat, co je pravda a co ne, avšak dá se z toho usoudit, že výsledné TDP je přinejmenším stené.. pokud ale vezmu v potaz chlazení, musel by být naprosto stejný problém chladit HD5970, pokud by měla stejnou spotřebu, ale HD5970 jde podle mě uchladit mnohem snadněji a nepotřebuje k tomu tak extérmní chladič, takže ano, osobně si myslím, že reálně má HD5970 nižší spotřebu a cenu a vyšší výkon než GTX480.. ale stále se nejedná o parametr klíčový - v highend počítači je spotřeba +-kilowatt, jde ale právě o možnosti chlazení - ne každý má v počítači vodíka i když má lepší počítač a dvojice GF100 si myslím by byla záhul i pro vodníka..-CF/SLI - ano, přznávám, mám jen HD4670 a GF6100 (igp), takže toto nemohu posoudit a zkušenosti mám jen z testů nebo od zámých (s HD5970 mám 0 známých) a zatím jsem právě neregistroval v testech nic takového, ale bude to tím, že testy se provádí až jistou dobu po vydání hry a to už, jak říkáte, ovladače jsou.. smozřemě nepopírám, že ovladač je základem všecho..-a abych to doplnil - po pravdeě jsem byl vždy zastáncem monočipu, jsem si totiž vědom velkých ztrát na CF/SLI/jiném režimu.. jenže tomu jsem věřil jen do doby, než prostě technika předběhla technologii - jádro čipu GF100 je z mého pohledu velmi vyspělé a defacto téměř dokonalé, ale pohřbívá ho právě jeho nemožnost vyrobit - na současnou výrobu je prostě téměř složité a výroba má spoustu zmetků.. samozřejmě, výrobci to hraje do karet, protože chyba, pokud nezasáhne životně důležitý prvek, ovlivní jen funkci bloku, tedy omezí počet jednotek a výrobce jej použije pro nižší model. co z toho ale vyplývá je fakt zhoršených vlastností a rizika disfunkce následkem chyby, která se projeví jen ojediněle.. (jako vadný sektor na disku - neví se o něm, dokud se nenahraje záznam právě do něho, pak je zle, data jsou ztracena, u čipu by to molo znamenat zásek, pád,..) takový čip má také horší vlastnosti, než by měl menší čip, se stejným počtem jednotek implicitně a bezchybně vyrobený.. takový by jistě měl větší výkon a mnohem nižší spotřebu (i mrtvé části jsou napojeny k obvodu napájení a jistě jsou tam občas části, které se snaží pracovat a užírají proud a všechny části vodiče mají nějaký odpor, kdy vzniká teplo.. tedy takový čip se i více zahřívá.. na jednu stranu velmi chytrý systém, na druhou stranu, představte si, že se jedná o pneumatiky auta - Ferrari potřebuje opravdu dobré gumy a tak dostane jen ty nejlepší.. pokud se ale při výrobě některé segmenty běhounu odlomí, výrobce usoudí, že takovéto pneumatiky už stačí jen pro průměrnou škodovku a vy, jakožto majitel škodovky, dostanete obrovské gumy, které mají stejně vzorku jako malé barumky.. ve výsledku rozdíl nepoznáte, nebo bude rozdíl, jaký jsem zmínil výše.. ale jde hlavně o ten pocit - nebyl by to divný pocit?
já vím, poněkud divné příklady, ale možná pak člověk nebude se vším tak spokojený, jako je teď :)
nižší modely by byly výkonnější na vlastním čipu, ale to chce jednak investici do projektace (to nebude tak těžké), ale co by pak nVidia dělala s nepoužitelnými zmetky? sice by měla lepší produkt, ale peněz by jí ušlo více..-záruka - ano, poslední článek, který jsem o Fermi četl, to je už dávno.. obsahoval ale oficiální materiály nVidia, kde se mluvilo o záruce 1 rok, a ta, pokud se nemýlím, v Americe platí ještě dnes..Děkuji za Vaši reakci a těším se na další :)

@TOBiAS02: Dobrý den,teď už odpovím stručně a rychle. Ten největší odstavec, resp. jeho poslední dvě třetiny, pro nás nemají moc smysl, je to totiž celé úplně nepodstatné. Výrobce svůj čip totiž dělá tak, aby se právě při jeho částečném poškození při výrob dal dále využít v méně výkonných modelech. To, že je tam kus bloku vadný a vypnutý ale dle mých informací a zjistění ničemu nevadí. Kdyby ano, tak to výrobce nemůže poslat do prodeje. Navíc zákazník má záruku, ve většině případů ony tři roky a ze statistik předchozích sérií grafických karet obou výrobců rozhodně neplyne fakt, že by byly modely s "ořezanými" jádry více reklamované.Za reakci není zač, snažíme se o to, pokud je věcně na co reagovat.S pozdravem,
František Novák - redakce CZC

@František Novák - CZC: je mi jasná, že čipy jsou navrženy tak, aby se daly použít i s menším množstvím jednotek.. nevím ale co je na tom nepodstatné..
ovšem výroba čipu plného i ořízlého stojí stejně a výrobce samozřejmě upřednostňuje vyrobit plný a tedy dražší čip.. a jisě mi dáte za pravdu, že vštší čip znamená větši šanci na "zásah" chybou a nutnost udělat čip neplnohodnotný..a nejsem ji jist, zda nVidia je spokojena s výrobou tolika čipů ořezaných, Vy tvrdíte, že s tím přímo počítá.. ano, počítá, ale rohodně to nechce.. bohužel současný a ještě dlouho budoucí stav výroby je silně proti ní..všichni spoléhají na 28 nm, ale dovoím si rýpnout - jak něco ještě menšího, může být snadnější vyrobit? všichni věří, jak 28nm všechno spasí, ale já to spíš vidím na ještě problémovější výrobu - co myslíte vy?v případě úspěchu by to byla pro Fermi spása, jenže v takovém případě už by se mohlo (a ono to tak bude) zdvojnásobit Cypress do jediného čipu ve spojení s novou architekturou a čip bude stále stejně velký a stejně náročný na výrobu.. GF100 by se tím dostalo na stejnou velikost, ale výkon by rozhodně nestoupl tak, jako v případě ATi a tak si myslím, že ani v ideálním stavu 28nm se nVidii nebude dařit vyrábět více, než teď - bude muset taky přidat jednotky aby udržela výkon, ale tím se zase zvětší a bude opět riskovat nemožnost výroby.. nVidia prostě vytvořila čip, který je tak dokonalý a nadčasový, že jej bohužel nelze vyrobit..
btw mám rád obsáhlejší reakce, rád si poslechnu další argumenty.. :)

@TOBiAS02: Dobrý den,bohužel vaše představa o výrobní technologii a jejích chybách je dost obecná, a proto hodnotíte a porovnáváte nehodnotitelné a neporovnatelné.Zkusím nastínit trochu více detailů, aby to bylo pro ostatní možná trochu jasnější, než se zde celkem povrchně bavíme. Začnu trochu z historie a skončím u současnosti.40nm výrobní proces je obecně zatím jedna velká chyba už od začátku. Vlastně prvním, v plné produkci (to je ale opět s "", neb to byl fakt jen test jádra ověřeného na 55nm) otestovaným jádrem, bylo RV740, které bylo součástí grafické karty ATI HD 4770. Ta byla vydána celkem nejasně a pro mě do teď nepochopitelně (tzn. nikde se o ní moc nemluvilo a najednou byla na trhu). Což o to, ale důležité je, že to byl vlastně ostrý test neprověřeného výrobního procesu. Asi nemusím zmiňovat, že to šlo ztuha a ač se o tom nemluvilo a nepsalo, můžeme si domyslet, že výnosnost nebyla nejrůžovější. Ale s tím se počítalo.AMD a i Nvidia chtěli jíž jít kupředu a pro plánovanou architekturu bylo potřeba menších jader. Ač totiž aktuálně RV870 z HD 5870 označujeme proti obřímu Fermi jako "malé" jádro, dovedete si asi představit, kolik by bylo 330mm^2 na 55nm (rada - takové druhé Fermi). Dokonce některé odhady z Q4 2008 tvrdily, že GT212 (nyní GT100, tedy Fermi), přijde na trh v Q2 2009 a možná, když se TSMC 40nm výroba povede, už v Q1 2009. Takže nakonec jsme to měli na konci Q1, ale 2010 a to ještě s velkými problémy. Opět jsem ale odbočil.Důležité je, že jak předpovědi i výrobci 40nm proces po úspěchu vyladěného 55nm procesu chtěli, u TSMC to nešlo podle plánu. Jenže zastavte dva giganty v dlouhodobých plánech. A tak se prostě u TSMC snažili. Chtělo to čas a ten nebyl. Takže plán se změnil a výroba se ladila za těžkého pochodu, který začalo RV740. Standardy šly pryč, úspory také, jen ta jádra solit. No ale až do dnešního dne, a to tedy rok a půl po zavedení první 40nm linky, je problémů stále více než dost.Po tom, co už prý vyřešil "contamination" problém, přichází další a další, které se řeší za pochodu. Jeden za zajímavých, na který jsem narazil je ten, že při výrobě dochází k rozdílné velikosti tranzistorů. Jedná se prý pouze o nanometr rozdílu, ale pokud je jeden tranzistor takový a druhý makový, musíme očekávat velké problémy s maximální rychlostí čipu apod. Pak asi čtete po webech zprávy, že 40nm výroba se na začátku roku 2010 zlepší a čipy budou dodávány rychleji a výtěžnost bude větší a kdesi cosi. Jenže s odstraňováním jednoho problému za druhým a hlavně za pochodu, kdy linky v tchajwanské továrně FAB 12 jedou neustále, se kupí a další a další problémy. Jeden z nich je také právě ona "funkční zmetkovost" jader, kdy není lehké vyrobit to tak, aby to onu funkci vypnutí a bezproblémového chodu mělo.A řešení? Zatím není. Chyb, které při výrobě čipu nastávají je stále hodně nevyřešených a vlastně jen zlomek byl zatím vyřešen. A AMD i Nvidia chtějí další a další čipy.Takže 28nm výroba je očekávaná, je do ní vkládáno hodně nadějí, ale podle toho, co jsem vám zde snad srozumitelně a stručně popsal je to proto, že 40nm prostě chtělo jen laboratorně vychytat, než se uvedlo do výroby, což by se tedy s 28nm nemělo stát. Vlastně i 28nm nebylo zprvu zamýšleno, přeskočila se už asi oficálně 32nm výroba. Otázka proč by měla být jasná - potřeba delší přípravy. Ač je totiž 40nm ve stavu v jakém je, nemůžeme už se vrátit k 55nm a říct si, že 40nm nejdříve poladíme laboratorně a potom to zkusíme sériově. Takže 40nm tu s námi ještě nějaký čas bude. Podle mého odhadu a podle toho, co jsem zde popsal za minulost bych čekal, že se TSMC a v té době už i GlobalFoundries poučí a nespustí nic do výroby, dokud nebude proces řádně otestovaný. Na začátku roku 2010 TSMC oznámilo, že pokud to půjde ok, tak v Q3 2010 začnou s 28nm. To se ale nestane. Takže Q3 2011 nejdříve? Podle mě realita a možná bych šel ještě dále.No snad jsem to nepřehnal, ale aspoň teď víme, o čem a proč se bavíme.S pozdravem,
František Novák - redakce CZC

@František Novák - CZC: jedna věc mě překvapuje - proč jsem něco takového ještě nečetl? fascinuje mě, že i přes množství informací, které máte, nenapíšete téměř žádný článek - kdyby jste napsal o tomto, myslím, že by jste byli jeden z málá serverů, který informoval o větších detajlech, než přímo na tuto problematiku specializované české servery..k tomu, co jste řekl nemám jedinou námitku, souhlasím s tím, protože je to pravda.. snažil jsem se to jen trochu zjednodušit..mě osobně vydání HD4770 také trochu překvapilo, nikde jsem se moc nedočetl jak vlastně opravdu vznikla, až zde od Vás.. už tehdá se ale vědělo, že s tou 40nm výrobou to není tak dobré a pokud to brali, byť jako ostrý test (produkt testu se nevyhodil, ale prodal), tak měli usoudit, že stav e špatný a je potřeba ladit.. jenže jediný, kdo z výrobců (AMD, ATi, Intel, nVidia) mohl být proti byla nVidia - byla si vědoma, že dělá velké jádro a že problém s výrobou by ji způsobil potíže.. ostatní počítali se 40nm tak jako tak a čipy přizpůsobili velikostí.. zde je nutno podotknout, že proti grafickým jádrům jsou zase prťavá jádra procesorů.odsud možná plyne větší počet linek pro nVidia - že by jí TSMC kompenzovalo neschopnost vyrobit jejich čip?Ohledně 28nm jsem ale stále skeptický - jelikož v takovém případě bude tranzistor ještě menší, bude mít tento proces stejné a větší problémy, než 40nm a bude na něm tedy nejprve ještě více vychytávání, a to bude stát velké finanční prostředky a hodně času.Každopádně základem zvyšování výkonu je menší výroba - na stejně velký čip se vejde více tranzistorů. jsem zvědav, na kolika nanometrech bude limit lidstva, každopdně asi všem je jasné, že nic menší než attometr není a ani se na tuto hodnotu nemůžeme přiblížit. mluví se o hranici 11nm, ale nejsem fyzik, abych o tom mohl spekulovat.. ale jistě je někde "konec", přes který se nepujde dostat a výkon čipu, jaký známe, zůstane už navždy stejný, bude se měnit snad jen se zvýšením taktů..
Tato diskuse mě opravdu baví :)

@TOBiAS02: Tohle diskuzní vlákno je jedno z nejzajímavějších, jaké jsem v poslední době měl tu čest číst. Pan Novák působí dojmem člověka, který má široký rozhled a v problematice se vyzná - tím tedy moje poklona.Ohledně problematiky dvoučipových grafických kaet (nebo dokonce CF dvoučipových) je skutečně pravdou, že na to musí být vyladěné ovladače a ty se ladí až dodatečně. Proto i já jsem velkým odpůrcem dvoučipových karet. Ale co se nestalo, navzdory tomu jsem si dvoučipovou 4870X2 pořídil. Trochu to ve mě stále hlodá, že jsem raději nezůstal věrný vlastním zkušenostem a zkusil tento pokus, zvlášť pokud pochází od ATI, která ovladače ladí až dodatečně a stejně nikdy 100% odladěné nebudou. Stejné je to i u neustále omílané 5970, kterou fanATIci upřednostňují před Fermi. Když člověk hledí jenom na testy (ne)seriózních webů, a pak jenom papoušku názor Obra, pana Stacha,.. bohužel. I navzdory tomu, že jsem majitelem dvoučipové grafiky, tak bych ostatní od toho chtěl odradit a ať se raději dívají po 5870 nebo Fermi. Nakonec bych radil se přiklonit k Fermi, protože ve skutečnosti není tak hlučná jak se všude píše (pan Novák mi v tomto snad dá za pravdu), v idle při ventilátoru na 40% je tichá, v zátěži při ventilátoru na 70% už to je sice hukot, ale v kvalitní skříni, se sluchátkama na uších při hraní to vadit nebude. Tolik moje zkušenost s Fermi 480, kterou jsem viděl ve SLI v provozu.
Neustálé hádky ATI vs. nVidii nikam nevedou, těchto žabo-myších hádek se již vyvarovávám, stejně se každý přikloní k tomu co vyhovuje jemu a ne co vyhovuje jeho sousedovi, který snědl všechnu moudrost světa. Faktem je, že ATI má lepší provozní vlastnosti, ale výkonově se občas dotahuje za pomocí "šizení obrazu". Tak nedávná kauza o Total Wars, u které ATI mělo snahu o co nejrychlejší nápravu. Není se čemu divit, každá firma si chrání svou pověst a u mezinárodních společností to dělá nemalé finanční zázemí.
Fermi je velmi dobrý začátek, ale pro odladění je ještě potřeba udělat velký kus práce. Byli bychom bláhoví, kdybychom od nové technologie (z pohledu nVidie) hned u první karty čekali zázraky. I pro mě byla prvních pár dní zklamáním, zkušenosti mě ale přesvědčily, že tak žalostné to není. Jestli nikdo nespěchá na nákup, doporučuji počkat na další generaci Fermi. Nejsem sice zastáncem čekání na to co přijde, ale v tomto případě se bude jednat o lepší volbu.Ohledně výtěžnosti 40nm u TSMC to bylo velmi hezky napsáno, stejně tak i problematice jednotlivých jader. Jen zůstala otevřená otázka neustálé miniaturizace a kam až povede. Celé to zmenšování se s určitosté zastaví na limitující velikosti křemíku, tedy asi 7nm.
Nejlepší cestak řešení výroby výkonných čipů o 3mld tranzistorů (což je nerentabilní) je, jak to dělá ATI a teď je tomu i u Fermi. Tedy místo jednoho velkého čipu je podle mě lepší udělat několik čipů a ty pak spojit dohromady. Tohle je podle mě cesta k nejlepšímu řešení.

@jeronim77: Z mého pohledu naprostého laika je toto vlákno sice naprosto úžasné a přináší spoustu informací, avšak z vašich (na mne velmi dobře působících) obsáhlých příspěvků mám vcelku i rozporuplný pocit - působíte na mne, jako byste se báli říci to, co kraťoučké výstřely běžných uživatelů se nebály říci (aniž by si svůj názor obhajovali či dali najevo, že k němu mají podklad).Fermi je zupr trupr věc, leč její výkon měřený na fps je prostě víceméně vedlejší, byť Nvidií vítaný jev. Podporuje technologie, které se ve většině her nevyužijí. Nebo že by vůbec s hrami neměly nic společného?Už jsem viděl více příspěvků v diskuzích, které Fermi chválily. Ale nebyly od uživatelů hráčů, nýbrž těch, kteří jakkoli používají grafické karty ke své práci. Těm lidem bylo jedno podání grilu s větrákem, karta má pro ně přednosti, které Ati poskytnout nemohla.I bych prosil, abyste můj názor usměrnili na správné koleje, nejsem si jist, zda jsem si to dobře přebral. Děkuji

@kadlis: osobně jsem celou dobu stejného názoru.. fermi je skutečně dobré jako výpočetní čip, oproti svým tesla předchůdcům naprosto famózní.. jenže o tom by se mělo diskutovat v článku Tesla C2060.. zde jsme pod GTX480, což je bez debat herně zaměřená grafika.. a ta se i přes svůj fermi čip poměrně ztrácí.. ano, ve prospěch nVidie možná dočasně hrají ovladače a semtam i to PhysX, ale nebudeme si nalhávat, že když pomineme "nej", tak celkově jsou prostě lepší a výhodnější ATi, byť nejvýkonnější jednočip vlastní nVidia.. (jeho výkon proti RV870 ovšem neodpovídá jeho tranzistorovému potažmo velikostnímu rozdílu)

@TOBiAS02: Jenže právě to "podivné" CUDA umožnilo rychle vyvinout kvalitní ovladače, které nezaostávají i přes to, že bylo potřeba využít dobré programovatelnosti GPU. Osobně si myslím, že tady jsou ještě možné rezervy a při příchodu nových SW technologií, se výhoda komplexnějšího přístupu nVidie může projevit.
Je fakt, že karty od ATi jsou dneska pro hráče dobrou volbou, ale nVidia rozhodně nezaostává, jak by se z některých příspěvků mohlo zdát.

@TOBiAS02: Dobrý den,ještě mi unikla reakce na záruku. Ta je na většinu GTX 480 tři roky a to přímo zde u prodejce, takže nějaké dvouleté garance evropské unie jsou zde zbytečné.František Novák - redakce CZC

@TOBiAS02: Pokud se zeptáte progamera, jenž se v kartách vyzná, myslím, že vám rozdíl mezi Cross/SLI a jednočipovou kartou vysvětlí celkem hravě. 2 karty/2 chipy nikdy nebudou úplně synchronizované, mají tendenci "závodit". Proto bylo (mimochodem i v mnoha testech, stačí chvíli googlit) mnohokrát dokázáno, že na progaming je prostě mnohem lepší karta jednočipová. Proto také NVidia své již poněkud zoufalostí podepřené PR postavila na onom "nejrychlejší jednočipové řešení pochází od zelených".

@DW: podstatný je ale fakt, že v celém článku i diskusi i vůbec zaměřením grafiky se jedná o grafiku herní.. a v herním výkonu je i při vlemi nefunkčních ovladačích HD5970 rychlejší.. většinou se ale povede do pár dní ovladače vyladit alespoň na 60% škálování a to myslím hraje proti nVidii..a t % rozdílu mezi HD5870 a GTX480 nemyslím, že hrajou roli i v profi branži.. 3fps navíc žádnýho grafika nezachrání.. ani hráče..

@TOBiAS02: udajne bylo vyrobeno zatim jen kolem 10 000 funkcnich kusu grafickych jader pro GTX4xx

@Danzel_cz: pro GTX4xx mozna, celkove bude ale ten pocet gpu GF100/Fermi vetsi, aktualne 2 nejvykonnejsi SC Nebulae pouziva krom Xeonu i 4640 kusu Tesel C2050 http://www.top500.org/system/10484 (a budou jiste dalsi SC spolehajici i na nove Tesly ktere asi chce nVidia s PNY a HP pokryvat prednostne) a objednavky na tyto tesly u OEM vyrobcu jsou tedy dost cekaci, my cekame na ctverici techto karet jako nahradu za C1060 ktera mame ted, a drive nez zacatkem srpna asi nebudou, poradnik je proste dlouhej, coz je dost prekvapive s tim jaky je rekneme nezajem o GTX4xx, nove Tesly oproti predchozi generaci prinasi vykon 4-6x vetsi a umoznuje i nektere dalsi funkce ktere byli na predchozi generaci temer nemozne, a otviraj se tak temto kartam dvere i tam, kde doted dominovalo jen CPU :)myslim ze nVidia si tedy nema moc naco stezovat a prodava Fermi vpodstate tam kam smeruje i svim nazvem Fermi a za mnohem vetsi sumy nez jake by ji prinesl herni trh, tam se podle me mnohem vice prodejne uplatni GF104 ktera snad vykonove nahradi karty s G200b, a GF104 tak spadne do te nejvice mainstreamove kategorie 100-250$ za VGA, tam ma jakasi "herni" Fermi sanci

@Shap: Tentokrát se Shapem souhlasím, myslim že Fermi se díky cudě a snad phys-x (tam kde nejsou peníze na Havok) uplatní spíše ve vývojářském/grafickém segmentu, kde provozní podmínky zase nehrají takovou roli. Uživatelům, kteří nechtějí investovat do vodního chlazení, bych fermi skutečně nedoporučil, jedině že by si chtěli domů pořídit nový radiátor a nevadilo jim, že jej v nadcházejících měsících mohou vypnout pouze deinstalováním ze skříně.

@DW: vzduchove chlazeni se da resit i pomoci Thermalright Spitfire, ale je potreba pocitat s 2tisici za chladic + par stovkama za 120/140mm ventilator a zaroven pocitat s tim aby se ten chladic vesel do PC, znamej s tim jiz GTX480 chladi a dolu sli jak teploty, tak samozdrejme hluk a mirne i spotreba

@Shap: a nebo ty 2 tisíce přihodím na v 99% pípadů o mnoho výkonnější HD5970..nebo ušetřím několik tisíc a koupím je o málo pomalejší HD5870 s Vaporem..

@TOBiAS02: ne kazdej chce dualni kartu z problemu ktere z toho prameni, skoukni treba testy karet, ze u nekterych enginu ma dualni karta ci dualni zapojeni stale problemya druhym bodem je ze ne kazdy muze nebo chce mit Ati, a duvody muze mit jakekoliv, od pracovniho nasazeni az po osobni preference dane znackyzrovna v tomto pripade majitel Ati mit nemuze protoze PC ho zivi a s nastupem GPU RT rendereru ma jedinou moznost jak jich vyuzit, a tim je Cuda only hardware, a bohuzel pro pristi roky se v teto oblasti nic nezmeni

@Shap: Na Computexu byla představena GTX 480 s Vapor chladičem, snad dorazí co nejdříve a s ní i další nereferenční řešení.

@Anonymní uživatel: cenou a provozními vlastnostmi se s hD5970 srovná, ale dotáhne i výkonem? :P

@TOBiAS02: Výkon jako slovo nic neznamená, je potřeba doplnit na výkon v čem.
Ve hrách bude asi HD 5970 pořád výkonnější, ale v profi aplikacích využívajících CUDA je hrubý výkon k ničemu, když neexistuje snadný způsob jak ho využít.

@Anonymní uživatel: Stejně tak i výhoda PhysX u karet nVidia je výhoda, která ATI chybí. Nelze říct, že někdo PhysX nevyužije a podobné fanATIcké řeči, záleží na každém. Podle mě je to perfetní vlastnost, která hraní posouvá o úroveň výše. Kdo je zvědav o co bez PhysX přichází, na youtube je mnoho srovnávacích videí.

@jeronim77: ano, souhlasím, hrubým herním výkonem vede ale výpočetní výkon má Fermi, jakoto výpočetně zaměřený čip, vyšší.. i když jak kde.. hrubý výkon v Tflops má ATi stále vyšší, ale takový výkon už se nedá využít všeude a hlavně aplikace pro něj můsí být úplně přesně nalajnována a v tom má výodu nVidia..nepopírám výhody Cuda a PhysX možných výpočtů, ale Cuda ve hrách není a PhysX také skoro ne a sorry, ale když uvedu příklad na Batmanovi - lítající papíry byly už v GTA 3, superdynamickou páru taky nepotřebuješ protože jí během hraní stejně nepstřehneš a i létající kabát nepotřebuješ, protože on lítá dodnes ale ne tak uplně reálné, hadry se hýbou tak, jak byly nadefinovány.. výkonu to učetří strašně moc ale hern zážitek není o tolik horší, abych kvuli tomu musel mít nVidii.. ale já nehraji podobné hry.. až někdo udělá závodní simulátor založený na PhysX do té míry, že i pneumatiky budou ovlivněny minimálně 15ti faktory, pak si postavím herní počítačna nVidiích, protože současné "reálné" simulátory za nic nestojí.. jenže to je rozdíl stále proti střílečce - dokud nebude fyzika na více místech - třeba fyzikální anatomie postavy, možné pohyby a zranění a jejich dopad na chování postavy, reálné chování zbraní, atd.. třeba tříštění skla a dřeva - je sice fajn, že se střpy válí na zemi, ale dokud se nebudou štěpit aspoň trochu reálně, není to nic světaborného.. ono i ta fyzika PhysXu je stále dost umělá než aby za to stála.. a i chudák Havok je nevyvýjený a jeho fyzika podle toho vypadá..

@TOBiAS02: Uváděné výpočetní výkony jsou teoretické, u ATi ještě zdvojnásobené tím, že GPU umí v jednom taktu vektorové sčítání i násobení, což je zajímavé, ale jak píšeš vyžaduje to výpočty "šité na míru".
Právě CUDA umožňuje využívat výpočetní výkon GPU bez složitého programování na nejnižší úrovni.

@TOBiAS02: proc porad pises nesmysly? Cuda ve hrach je, kazda hra ktera pouziva GPU-PhysX pouziva take Cudav Batmanovi to nebyli jen papiry, ale i kuprikladu mlha a pary ktere dost pridavali na atmosfere ;) je dost rozdil kdyz je chodba prazdna a nedo kdyz je plna koure a dohlednost je tak mizivanejlepsi je jak vsude pises ze vlastne nehrajes, ale presne vis jak to tam vlastne v tech hrach je a ze je to zbytecne, pritom ve vetsine tech veci se mylis a evidentne onich nemas ani paru :)

@Shap: čas od času zi zahraju, ale ne přímo novinky, protože si nic nekupuju, spíš až když mi něco pučí kamarád tak to ozkouším.. o těch efektech z batmana jsem se zmínil o všech..o co ale jde.. ta pára co tam byla se dá vykouzlit uplně jednoduše i bez PhysX, ovšem nebdue reagovat na průchod hráčem, nebude tak dynamická.. stejně tak noviny si budou lítat automaticky a furt.. a plášť taky nebude tak dynamický.. ano, na první pohled, při prvním hraní, tyhle efekty strašně působí na mozek a člověk chvílema sleduje, jak se ta pára vllní a sleduje proudění vzduchu, ale po čase hraní už na to nějak nereaguje.. hrál jsem Batmana asi týden na kamarádově GTX260..btw ono je to teď stejně jedno, nvidia oficiálně řekla, pokud z toho nesešlo, že pracujena OpenCl verzi PhysX.. pak už budeme moci porovnávat jen, jak moc se v PhysX budou ATi propadat a věřím že nemálo.. ale bude fajn si takové efekty zprovoznit i na ATi..Cuda je programovací jazyk, správně? v tom bude nejspíš PhysX engin naprogramován.. možná mi tato skutečnost předtím nedošla..

@TOBiAS02: CUDA (Compute Unified Device Architecture) je rozhraní umožňující programovat GPU z C s přidanými knihovnami a vytvářet tak kód využívající možnosti paralelních výpočtů v GPU.
nVidia se od začátku snažila přesvědčit AMD, aby přijali CUDA za své, ale ti se nechtěli vázat na konkurenční technologii. Místo toho se poměrně málo úspěšně pokušeli jít vlastní cestou.
Dneska je největším konkurentem OpenCL zaštiťované Khronos Group (sdružení firem, přičemž jak nVidia, tak AMD patří mezi hlavní členy).
Ať už vývoj půjde jakýmkoliv směrem, dá se čekat, že po SW stránce se bude nVidia snažit být vepředu, nic jiného jim totiž ani nezbývá, pokud chtějí v konkurenci obstát.

@Anonymní uživatel: ono to možná nepřijali proto, že AMD/ATi chce podporoat zejména otevřené standardy, což Cuda není, i když asi by byla efektivnější než OCL..aspoň co se říká, tak ATi dělá do SW teď až nějak moc, přičemž je to zejména HW firma, zatímco nVidia už dlouhá léta hlavně tahne svuj SW, který svými kartami desfacto doplňuje...kdyby ATi Cudu přijala, byla by za to kritizovaná, navíc Cuda také nemusí přímo být v souladu s architekturou čipů ATi, které s něčím takovým nepočítají.. ATi jen potřebuje namíru psané aplikace (nVidia si je pro sebe píše, ATi jen trochu), aby se její potenciál projevil.. samozřejmě jak kde - ne všuce může být silná architektura nVidia, ne všude ATi.. zatím se zdá, že ve hrách je architektura ATi efektivnější.. to může být zmetkovostí čipu, nevhodností arhitektury,.. nejspíš architekturou, protože zatímco ve hrách se výkon moc nezměnil (2x na GT200b), ve výpočetním segmentu vzrostl mezi stejnými jádry na osminásobek a to ještě Fermi není ve své plné specifikaci..

@Anonymní uživatel: Nvidia nikdy opakuji nikdy CUDU ani PhysX AMD nenabidli. Nechapu proc tyhle bludy neustale nekdo opakuje.

@stratos.: uplne ze stejneho duvodu z jakeho siris bludy ty :) proste protoze otom tenkrat v roce 2008 psalo nekolik webmagazinu zabivajicich se HW/SW a odkazovali se na svetove webyAMD pokud vim oficialne CUDA odmitlo ve svem prohlaseni s tim ze chce podporovat jen otevrene standardy, a to jestli predtim byla ci nebila nabidka ze strany nVidie, nebo jestli to byla jen reakce na nejake dotazy ohledne CUDA na Radeonech od tretich osob dnes jiz zrejme nezjistime

@Shap: hlavne ze ty tu neustale omilas sve polopravdy ktere ti uz mnoho lidi vyvratilo a ne uz nereagujes vid? :)

@stratos.: ? covece stale tu spis vidam vyvraceni vtich postu od vicero uzivatelu, kde ze to nereaguju? hod odkaz abych tedy zareagoval :) to vis ja nemam cas celej den projizdet databazi diskuzi na CZC, a tak pokud jsem nekde nereagoval, je to spise diky zapomeni a do dane diskuze jsem od posledniho meho postu jiz zrejme vubec nenahledl

@stratos.: a doporucuju ti muj predchozi post precist jeste jednou, zrejme si ho nepochopil a uplne zbytecne pak reagujes urazlive, polopravdy, pravdy, nebo lzi tu mame vspodstate vsichni, protoze nasim hlavnim zdrojem informaci je internet ktery je tech pravd, polopravd a lzi plnej a bohuzel casto nema nikdo z nas sanci urcit, jestli je to prave pravda, polopravda nebo lez ;)

@Shap: ono co jsem ten render viděl, tak zatím není moc o co stát.. co se profi renderu týče, tak či tak bude zase trvat hodiny, i když jistě, proti procesoru to bude zanedbatelná doba.. co se ale RT renderu týče, pro cpu existuje třeba HyperShot, který se s cuda rt může měřit do doby, než budeš závodit o profi final render..souhlasím, že Cuda je tahounem nVidia grafik, jenže ve směru profi segmentu, v herním segmentu je ti Cuda uplně kničemu! a my se bavíme o GTX480 jako herní grafice, její výpočetní schopnosti nepočítám, bylo mi jasné, že proti předchozí Tesle to bude rapidní skok..

@TOBiAS02: coze? zrejme absolutne nevis jak se veci momentalne maji ze? Grafika me zivi a Arion Render jiz pouzivam prez 2 mesice, pro vizualizace zcela idealni nastroj co zkrati oproti CPU dobu renderu treba i 30x, opravdu zanedbatelna doba rozdil treba 1 den a 1 hodina :))))nejdriv si zjisti jak natom RT-GPU opravdu jsou :)Arion Render http://www.randomcontrol.com/arion , dalsi GPU-RT jsou kuprikladu Octane Render (pouzito na previz filmu Avatar) http://www.refractivesoftware.com/ nVidia natom spolupracovala a ladilo se natom pro pozdejsi ucely jejich RT enginu pouzite treba v Design Garage, Mental Ray 3.8 ma jiz tez integrovanou CUDA http://www.mentalimages.com/index.php , a nove pribude i VrayRT http://www.spot3d.com/vray/images/stuff/rt_gpu/co se herniho segmentu tyce, tak as tak pravdu take nemas, hra Just Cause pouziva CUDA a vlastne vsechny implementace GPU-PhysX do her jsou resene prave prez CUDA, tedy CUDA pouzivaji vsechny hry s GPU-PhysX

@Shap: viděl jsem jednu demonstraci RT renderu na Fermi přímo od nVidie a moc mě to nepřesvědčilo o kvalitě renderu.. ale proti tomu že je gpu render mnohem rychlejší nic nenamítám!PhysX ani Cuda jsem do hloubky nikdy moc nezkoumal ve hrách, obecně jsem poslední dobou hry vůbec neřešil.. je mi jedno jestli PhysX je vlastně jen nástroj naprogramovaný v Cuda, ale podstatný je fakt, že tituly s PhysX nejsou o nic lepší, zajímavější a prodávanější, než povedené tituly bez PhysX.. navíc nechuť vývojářů prostě PhysX nepoužívat vývoji tohoto fyzikálního enginu nikterak neprospívá.. kdyby to bylo ale tak geniální lákadlo to PhysX a Cuda, jak říkáš, proč ho ve hrách používají jen tam, kde si to nVidie udělala sama? proč ho nenasadí každý větší vývojář?

@TOBiAS02: nVidia má speciální tým odborníků, kteří pomáhají vývojářským týmům s optimalizací výkonu ve hrách a to je to, co ATi chybí. Experti od nVidie pomáhají nejen s PhysX, ale s grafickým výkonem obecně, takže z toho v důsledku těží i majitelé karet od ATi.
nVidia to dělat musí, protože je na prodeji svých GPU a využívání pokročilých technoologií kriticky závislá. ATi tím, že je součástí AMD má větší jistotu a nic je k těmto poměrně nákladným aktivitám nenutí.

@TOBiAS02: trosku divne?, dal jsem ti odkazy na nekolik RT-GPU rendereru a jsou tam jak galerie, tak videa, a ty tu porad pises ze te to nepresvedcilo o kvalite?, koukal jsi vuvec na ty odkazy? kvalitou je natom GPU-RT uplne stejne jako CPU-RT ;)a o CUDA ci PhysX podle toho co pises asi take vubec nic nevis, proc otom pises ty nesmysly kdyz otom zjevne nic nevis a jen zrejme prebyras informace z internetu a zjevne z mist kde otom take mnoho nevedi?

@Shap: a je tam nějaké demonstrační video? já viděl to od nVidie, to "první" a to mě tenkrát vůbec nepřesvědčilo.. o renderech, které jsi uvedl nepochybuji, to jsou rendery třetích stran a jsou vynikající.. ale ten render od nvidie byl příšerně jednoduchý a místy poměrně přehnaně nereálný a jaký byl výsledek? RT výpočet běže na hranici RT pozorování.. z čehož vyplývá ne zrovna extrémní výkon - kvalitnější render by na něm běžel o dost pomaleji.. aspoň si to myslím, neviděl jsem třeba vray v akci na gpu..

@TOBiAS02: tak si ty odkazy projdi, to ses tak linej ze nechces kliknout na par odkazu? mimochodem na vsech tech zminenych RT nVidia spolupracovala/spolupracuje a OctaneRender je primo jeji projekt stejne jako MentalRay, obe firmy ktere dany renderer vyvyjej jsou totiz ve vlastnictvi nVidie ;)

@TOBiAS02: Říci, že v herním segmentu je CUDA k ničemu, svědčí o naprostém nepochopení celé věci od začátku až do konce, zajímalo by mě, jestli máš nějaké ponětí o tom, k čemu CUDA vlastně slouží.

Nejvýkonnější jednojádro ... ALE ?!

Podle výsledků je to nevýkonnější GK které může být protivníkem snad jen Ati HD 5870 která je na tom otrochu hůře. Ale obrovské problémy vidím po shlédnutí teplot které tato GK dosahuje. Skoro 100°C - to snad ani není možné. To je topení a ne součást do PC. Také spotřeba je enormní. Myslím že koupi této GK bych velmi zvažoval a nakonec bych se rozhodnul buď jít do jednočipové DH 5870 nebo si připlatit trochu víc a mít hned HD 5970. R.

@Randalnik: Jak tě to jako uživatele ovlivní? Mě je jedno jestli mám grafiku na 30 nebo 90 stupních když podává výkon, jakože GF100 podává, kor GTX480.Jako uživatel nepoznáš, křemík vydrží až 200 stupňů, grafika se automaticky vypne při dosažení 105 celsia tudíš ohrožení na HW nehrozí ani z daleka. A pokud by se ti grafika sama po dosažení 105 celsia vvypínala můžeš reklamovat či vrátit peníze, aspoň zbude víc levnějších, již použitých karet pro zákazníky bez 13, ale jen s 11 tisíci :).

@soap: Eh docela by mě zajímalo kdo si koupí tuhle šílenou potvoru. Teploty vyšší než snad cokoliv a spotřeba vyšší než silnější HD5970, to si raději připlatím lehce a půjdu do HD5970. Fermi všeobecně se dá označit jako EPIC FAIL. Navíc výroba GTX470 končí, protože se neprodávají tak jak si zelení hoši mysleli. A mobilní GTX480M vypadá taky s TDP 100W super pro notebooky.

@Artanis62: mobilni FERMI 100% prekona 100W. Ten oficialni udaj 100W je zase takova mala lez jako 250W u GTX480 to je zrejme. Defakto jedina FERMI kde nvidia nelze se spotrebou je GTX465 a TESLA, zvlast v TESLACH si nemuzou dovolit lhat, kdyz se na to dimenzuje chlazeni za stovky tisic dolaru ve velkych serverovnach. A i tak je TESLA na FERMI uz ted prijimana dost chladne tech 250W na oklestenou FERMI (Vykon pod GTX470). Uz 3 velke korporace zrusily konratkt na nove TESLY prave z duvodu vysoke spotreby a mizerneho pomeru vykon/wat na ktery se u serveru docela dost kouka.

@stratos.: Ano to vím, slyšel jsem i o údajích 130W. "Ke každému laptopu s GTX480 vodní ruční pumpa na chlazení a 2kW diesel agregát zdarma"
Ono jakmile nějaká firma ví že to bude křáp, bude to rozmazávat hrozně dlouho dopředu, reklamy, mlžit, atd. aby se to prodalo. viz. Fermi.
GTX480 je MNOHEM žravější než HD5970. Navíc je směšné že má 3 výstupy a dokáže používat jen dva. Pokud chce člověk víc musí si koupit druhou kartu a to mi přijde jako šílenost. Naproti tomu ATi Eyefinity řešení s 6 Displayporty či dokonce 12-ti je celkem fenomenální. Kolik nVIDIí by to dohromady dalo? :D
Legrace byla jak CEO nVIDIE mával tehdy novnářům před nosem tou novou Teslou a přitom to byla jen GTX295 s jiným přilepeným chladičem...
A navíc nové ATi FireGL nadělají QUADRU pěkné peklo...

@stratos.: Jak říká kolega Stratos. Mobilní Fermi není mobilní :D To bychom sebou musel tahat napájecí drát k NTB a hasící přístroj kdyby se nám to trochu přehřálo. Myslím že GTX 470 i 480 nejsou domyšlené a byli na thr vypuštěny se slovy "prodej se! potřebujeme vydělat!" Ale kolegové udělali chybu... Nedotáhli to konce a výsledek se projevil. Vysoká spotřeba,enormní teploty a celkem vysoká cena z této GK dělá slušné TABU pro ty kteří aspoň trochu rozumí. Ještě tu byla nějaká osoba co na mě šla s křemíkem který vydrží tolik a tolik- vzkaz pro něj: Pokud dáš tuhle GK do bedny která nebude mít SKVĚLE řešené odvětrávání tak z toho máš buď troubu nebo krb ;)

@Randalnik: úskalím čipu není jeho architektura sama, ale je to jeho architektura vůči chopnosti lidstva vyrábět - je moc složité na současné možnosti výroby :( kdyby se 40nm vyladil, mohlo být vše jinak, ale taky nemuselo..v tomto ohledu jsem skeptický taktéž ohledně 28nm, které na tom bude nejspíš úplně stejně..

@Artanis62: a to má ještě přijít dual GTX470 nebo GTX465.. tedy.. nVidia chce s dvojicí nečeho, co je slabší než HD5870 porazit dvojici HD5870 - zde by mohla většího výkonu dosáhnout JEN přetaktem (což při TDP už tak nad 400W nelze), nebo mnohem lepším škálováním SLI, než dsahuje CF HD5970..a GTX480M? spotřeba grafiky stejná jako o ne mnoho pomalejšího celého NTB s HD5870M..už se těším :)

@TOBiAS02: o GTX465 se už ví teď že to je EPIC FAIL. V testech hrůza, žravá podobně, jen levnější, prostě chabý pokus...Já se těším celkem na AMD Liano CPU + GPU řešení :)

@soap: Neodolal jsem neodpovědět :) Pokud myslíte křemík a jeho bod tani a varu,tak je máte zde : teplota tání, 1687 K, 1414°C. teplota varu, 3173 K, 2900°C,kdybyste náhodou chtěl taktovat Vaší NV,tak abyste věděl,kdy se vám vše rozpustí :). Mimo to,už vás vidím,jak s úsměvem na tváři odsekáváte kousky roztavených plastů například z krytu karty,které sáláním karta roztavila, třeba od základní desky,zajisté "levné". Nechci pobuřovat,ale vysoká teplota karty jen naznačuje to,že má malou účinnost,protože vyzařuje mnoho tepla.
Docela mi přijde úsměvné,když mi někdo představí grafickou kartu,která má větší spotřebu než mainstreamový stolní PC :D A to ještě není nejvýkonnější. Prostě NV se moc dlouho hřála na slunci,až z toho dostali manažeři úpal a teď nám tu představují své vysoké teploty.
Tímto způsobem ceny grafik dolů nepůjdou,když ATI už nemá konkurenci a převálcovala NV už i v její vlajkové lodi.

@svataK: jen jeden detajl - účinnost grafické karty je téměř nulová - těch pár miliwattů, co se přemění na výstupní signál monitoru a pohon ventilátoru je téměř nic.. a veškerý zbytek, 99,9% přikonu (spotřeby) se mění na teplo.. ať už z čipu hlavního, nebo čipů pamětí a řídíchích švábů napájení.. koneckonců i na samotných vodičích..možná protože se výkon karty neudává ve Wattech, protože pak by byl výkon nějaké ty miliwatty, možná až stovky miliwattů, ale spotřeba je v desítkách wattů.. účinnost je tedy opravdu velmi nízká..pokud si někdo myslí opak, řekněte mi, kam jinam se ještě elektrický proud na kartě přeměňuje, kromě signálu, otčivého pohybu ventilátoru a tepla :) maximálně v nějakých indikačních diodách, ale to jsou také miliwatty, a rozhodně ne výkonu..

@svataK: Ono nejde jen o křemík jako takový, spíše o ty okolní prvky, součástky apod. NV se hřála na sluníčku také z dobrého pocitu že kdysi mohli krást cizí technologie a procházelo jim to.

@Artanis62: Vím,já jen neodolal zjednodušení na křemík a prostě si musel rýpnout.
Ještě si pamatuji,jak nejlepší PC znamenalo " INTEL + NV,ale teď už je to Intel ATI. A to už nemluvím o tom,že pro běžného uživatele mají procesory až úplně zbytečně velký výkon,takže nejlevnější a vyvážená sestava je AMD/ATI.Omlouvám se za odbočění od tématu a zároveň děkuji pracovníkovi CZC a jeho oponentovi za zajímavé čtení.PS:Vše mé reakce směřovali na pana "soap".V diskuzi je to špatně vidět.

@svataK: kdysi to znamenalo spíše AMD + NV, protože než přišla řada Core2, Intel prostě dostával na zadnici od tehdejších legend jako např Athlon QL-60 64-bit.

@Artanis62: ale ještě předtím zase dostával na zadnici AMD.. a ještě předtím Intel.. střídali se furt a často, až teď moc dlouhou dobu kraluje suverénně intel.. i když ne až tak suverénně jak si každý myslí. je sice siverén výkonu, ceny a prodeje, ale rozhodně ne suverén výhodnosti.. jak jižbylo řečeno..

@TOBiAS02: Ano, pamatujete na legendární Durony pro socket A(462)? Duron 600MHz za 70USD byl stejně silný jako P3 600MHz, silnější než Celeron 600MHz, který stál 100USD a Duron pouhých 70USD. Navíc to odemykání L2 cache a měnění na Athlony mi připomíná dnešní odemykání jader u Phenomů a Athlonů :) Ale o tomhle by jsme tu mohli diskutovat donekonečna....

@Artanis62: tehdá jsem měl později do socketu A Athlona 2000+ a intelovského Celerona 2ghz.. obojí šlape dodnes a podává docela slušné výkony pro DC výpočty..

@svataK: Zřejmě jsem zůstal nepochopen :Oo.
Myslel jsem to tak, že křemíkové jádro je schopno běžet i pži 200 stupních, už nevím kde, snad jsme se to učili ve škole.
Jinak pochopitelně souhlasím, ten plast co tam je má tuším bod tání někde kolem 170-190 stupnů celsia, kondíky by se třeba taky mohli u značky jako Palit začít nafukovat, to nepopírám :).Taky jsem neřekl, že nejsou AMD vzhledem na výkon/watt lepší, ano ale pokud bych peníze měl nejdu ani do HD5870 ani do dvoučipové verze této karty ale právě do GTX480, divte se nebo ne, říkejte o mě že jsem... Nestojím o problémy s 2 čipy, ale když bych ten výkon navíc proti RV870 mít mohl, proč ne. Samotný vysoký teploty mě netíží, dokud se nebude vypínat grafika při každym hraní Metra, Split/second, GTA nebo podobně, jestli si rozumíme.Nakonec si stejně myslím, že těch několik Watt na víc nikoho nezabijou, pořád to všichni omýlají dokola (zdravím "DDho"), na jednu stranu čumim s otevřenou pusou nad HD5850 s úžasnými 150Watty, na které mi stačí 2x6 pin, na tu stranu druhou se nezblázním s 2x8 piny v případě teoretické GTX470x2 (?). Asi tak.

@Randalnik: Co se pamatuju tak zhruba 10 let zpátky valily některé 3dfx karty i přes 100°C (a pouze s heatsinkem). Takže samotná teplota problém být nemusí - pokud nejsou "v dosahu" komponenty na teplotu citlivé nebo pokud není jiné teplotní omezení.

@llib: ano, ale tankrát to byl jen ptavý heatsink, který se hřál sám pro sebe.. ale dnešní výtopny produkují lehce více tepla (ve Wattech=joulech téměř stejně, co je jejich spořeba - tehrejší spotřeba byla lehce odlišná).. a takováto energie musí jít neustále pryč protože její nahromadění by mělo fatální následek nejen na grafiku.. okolí grafiky trpí také a velmi..

@Randalnik: V tomto případě se zdržuji vlastních slov a pouze se pod příspěvek podepisuji, NVIDIA to totálně nezvládla a Fermi je zralá na návrat k "rýsovacímu prknu". V Ati se nejspíš už pár měsíců bujaře slaví.

@DW: Zdravím vás všechny :)
Je zajímavé vás tady pozorovat jak se tady přete vši mnul jste si nikdo kolik stojí ATI 5870 a kolik stojí Nvidea 480 rozdíl je 3000 tisíce tak tam určitě nebude stejní výkon asi.Dále je známo že ATI/AMD je jich gk vydrželi déle z dechem na poli herního průmyslu od serie ati 9600/9800 xt v té době stáli proti nvidea 5600/5900 ultra nvidea byly tehdy při uvedení o kousek lepší ale záhy po uvedení nových ati ovladačů jejich náskok zmizel.
Podobně tomu bylo dlouhá léta nvidea když vídá noví produkt tak ho má perfektně sladění s ovladači ati bohužel ne ale za čas ale se zjistí že ati je po vydání nových ovladačů na tom lepe než nvidea.Jinak když si budu kupovat gk novou tak si musím spočítat náklady na provoz a výkon což si koupím asi ati 5970 sice stojí o 3000 více ale ve spotřebě a výkonu se my náklady vyplatí oproti N 480. já osobně vlastním N9800GTX+

@Randalnik: Proč by to nebylo možné? Já mám GK 8800 GTX 768 MB a ve FurMarku mi dosáhla 100 stupňů celsia.

Výkon/Teplota/Spotřeba..

No tak ze článku jsem se dočet akorat že je to nejvýkonnější jednojádrová gk (o pár snímků výkonů oproti HD 5870), ovšem za cenu nesrovnatelně vyšší teploty a spotřeby oproti HD 5870..:D - Ano jsem fanda ATI/AMD :)

@Daniel Hofschneidr: To není o tom že si fanda ATI, je to naprostá pravda já na Fermi čekal do března a pak jsem to nevydržel a koupil 5870 a s tou tichostí a spotřebou jsem nanejvýše spokojen a tech pár snímků navíc získám drobným taktem... navíc vetšina testů na Fermi / ati byli se starema catalistama a ty měly v některejch hrách přesně ten 15% rozdíl výkonu jako fermi takže nula od nuly...

@pavel.martinovsky: vim, ze to neni o mem fandeni, to jen pro rejpali s hlaskami: a ATIňák.. :D
Tosi pak kazdy mysli ze amd a ati jsou muj zivot ale neni tomu tak, mam dlouholete zkusenosti i s intelem a nvidii :) (jenze to si treba vice lidi nemusi uvedomit..)

Spotřeba

jen pro úplnost - někteří lidé tu tvrdí že jim spotřeba nevadí, pojďme se podívat na kolik vás karta vyjde;)karta bude vytížena 8 hodin denně, 7 dní v týdnu, při ceně 3kč za KW/h se spotřebou 400Wto je 0,4 * 8 * 365 * 3 = 3504Kč/roka upozorňuji že to je jen grafika, není lepší koupit ATI která pojede o 15% pomaleji a ušetřit? ;) Těch pár snímků stejně nepoznáte, co ale poznáte bude ticho a chlad ve skříni.

@sonny21: Bože, co to tady plantáš? Jaká spotřeba 400W? To myslíš, že někdo bude hrát 8 hodin denně, 7 dní v týdnu?
Spíše než vymyšlenou spotřebu jednotlivé karty bych se díval na rozdíl mezi spotřebou 5870 a 480. Není nutné tady vymýšlet nějaké fiktivní hráče, nejlepší je vyčíslit rozdíl za hodinu zátěže (v idle na tom jsou podobně). Tedy za hodinu hraní při ceně 5Kč za kW/h je 0,5Kč. Záleží na každém, zda hodina hraní bez PhysX mu za to stojí, mě osobně těch padesát haléřů za hodinu hraní nepřijde jako argument :-)

@jeronim77: zajimalo by me kam lidi na ty spotreby chodej, jestli to berou z jistych webu ci odkud? :)mam doma temer dve schodne sestavy a rodil je prave ve VGA, v hernim PC je i7-860, HD5870-E6-950/5000, 4GB a v pracovnim PC je i7-860, GTX470-750/1280, 8GB, 2x VRaptor, oba CPU stejne taktovana nad 3.8GHz, desky shodne, ostatni HDD shodne, zdroje shodne E-Modu82+, chlazeni shodne a to vodni CPU+GPUv Idle je rozdil na zalozaku APC mezi 5-10W a to ve prospech PC kde je GTX470, davam to za vimu prave VGA HD5870-E6, protoze predtim tam byla normalni HD5870 a spotreba byla o 10-15W mensi a to i v zatezich, spotreby jsou Her.PC cca180W a Wor.PC cca 170W, v zatezi pri hrani StalkeraCOP jsou spotreby Her.PC cca 360W a Wor.PC cca 390W, rozdil ve spotrebe je tedy cca 30W v neprospech PC s GTX470, FPS v obou pripadech osciluje prumerne okolo 50-60fps v 1920x1200 (jina hra me na workstation nesmi a tedy jine hry porovnavat nebudu), v MSIkombustoru kde se da vymacknout absolurni maximum jsou spotreby Her.PC cca410W a Wor.PC cca 460W, rozdil tedy cca 50W a to opet v neprospech PC s GTX470, ikdyby oba PC jeli neustale na maximum rekneme 8h denne, tak rocni rozdil na fakture za el.energii by pri 4kc za 1kW cinil necelich 600 koruna ted cena za ony VGA, ja GTX470 poridil hned zpocatku v USA na Ebay za 365$ vcetne postovneho, tehdy cca 6500korun, dnes tadu na eshopu zacina na cca 8500,-, HD587-E6 jsem poridil za necelich 11tisic korun (dnes muzu jednoznacne rici ze jakakoliv 2GB verze ci verze s nejakym nereferencnim chlazem kde se zato plati se nevyplati a nejlepsi volbou je zakladni referencni model) a zakladni referencni model zacina zde na eshopu take na cca 8500 korunach

@Shap: takze GTX470 ma o 50W horsi spotrebu nez HD5870 SIX coz je dost bida. HD5870 SIX ma TPD 220W a GTX470 ma mit TPD 220W taky tj nekde je asi chyba :). A to nemluve o GTX480 ktera ma obecne v recenzich nakejch 110-160W navruch oproti normalni HD5870. TJ je jasne ze Nvidia s udavanim TPD zamerne lze a podhodnocuje :)

@stratos.: zaprve HD5870Six nema TDP 220W ale ma PCB s napajeci kaskadou az 220W tak jako HD5870 ma stonovenu tuto hodnotu na 188W, ani u jedne karty se nejedna o TDP ci otom kolik dana karta spotrebuje energie, a prekvapuje me ze jako fanda Ati tohle nevis?zadruhe hodnotu namerenou recenzenty je potreba brat s rezervou a jeste si ji dopocitat, temer zadny servr totiz neuvadi spotrebu se zapoctenou hodnotou ucinnosti zdroje v testovaci sestave (a je sakra rozdil kdyz sestava bere na zasuvce 400W a zdroj ma ucinnost 80 nebo 85%, 60-80W jde totiz pri tech 400W jen na ukor ucinnosti zdroje) ale uvadi hodnotu sestavy na zasuvce, a pokud si tuto hodnotu zapoctes, tak zjistis ze oneh 250W prekracuji weby jen v merenich v MSIkombustor, a vzhledem k tomu ze se neda presne urcit spotreba jen VGA, tak se to podle prumernych hodnot ostatnich komponent podle testu pohybuje mezi 250-270W v MSIk (cos znaci o velice kvalitni napajeci kaskadu), v hernich testech maji pak tyto hodnoty mezi 240-250W, nVidia samotna se k TDP vyjadrila tak ze uvadi prumernou maximalni hodnotu pri beznem pouzivani ;) takze nez nekoho obvinis ze lzi, tak si nejdriv precti co tim TDP mini (ani jedna z firem v IT co TDP nekde uvadi u svejch komponent, bohuzel neuvadi podle stejnych meritek, co TDP to u techto firem unikat ktery si nejak vykladaji)a jen tak naokraj, napajeci kaskada a jeji kvalita nema nic spolecneho s tim jake napajeci konektory jsou na karte obsazeny, takze karta s 2X6pin muze mit mnohem lepsi napajeci kaskadu nez karta s 2x8pin, viz kuprikladu MSI Lightning kde je prave napajeni desne ochuzene a tak lidi s referencnima kartama muzou casto dosahnout mnohem lepsich OC visledku nez lidi s Lightning verzi, bohuzel

@Shap: jeste k tomu TDP u GTX480, nVidia ani zadna jina firma nemuze vedet jaky zdroj dany uzivatel pouzije, tedy nevi jak ucinnej zdroj to bude, takze TDP/spotreba/ a dalsi podobne hodnoty se uvadi realne na danou komponentu ktere si opravdu poruci ke svemu chodu, tedy spotreba az za zdrojem, a jak jsem psal vejs, tak pokud u GTX480 ktera si rekneme vezme oneh 250W bude zdroj s ucinnosti 80%, tak na zasuvce by se namerila spotreba 312,5W

@Shap: dnesni kvalitni zdroje co v recenzich pouzivaj maj minimalni rozdil v ucinosti defakto sou zrdoje co uz od 20% vytizeni maji 80%+ tj na tohle se snad vymluvat nebude co? :). GTX480 je proste zrava mrcha co spotrebou prekonava vse co je na trhu. HD5970 ma TPD 294W a pritom sem jeste nevidel recenzi kde by mela vetsi spotrebu, vesmes je GTX480 100W pred ni coz je brutus :)

@stratos.: opet pises nesmysl, HD5970 zadny TDP 294W nema, 294W je udaj znacici "Maximum board power" tedy napajeci kaskada na PCB ;), realna spotreba HD2970 je okolo cca220Wa opet ukazujes jak ctes prispevky na ktere reagujes, o 80% jsem psal a napsal jsem i jak to zahejbe se skutecnou spotrebou danych komponent ;)

@Shap: HD5970 ma dle oficialnich specifikaci TPD 294W GTX480 ma dle oficialnich specifikaci TPD 250. Nauc se cist jo? :)

@stratos.: podle oficialnich specifikaci ma HD5970 "Maximum board power: 294 Watts" nic o TDP se tam nikde nepise, a kdyby to chteli napsat jako spotrebu, tak nenapisou Maximum, ale Load, proste maximalni kaskada napajeni na te VGA zvladne 294W ;) http://www.amd.com/uk/products/desktop/graphics/ati-radeon-hd-5000/hd-5970/Pages/ati-radeon-hd-5970-specifications.aspxjeste nejaka tvoje domnenka?

@Shap: Zdravím.
Bohužel s vámi musím nesouhlasit. Maximum board power = TDP (wiki kdyžtak pomůže ke správnému pochopení)"
In place of TDP, you can also find the term Maximum Board Power or Max Power Draw or Power Envelope.
"Zdroj:http://www.geeks3d.com/20090611/tutorial-what-is-the-thermal-design-power-tdp/Mimochodem chlazení je dimenzováno již od výroby na 400W
http://www.hardocp.com/images/articles/1258499856BbWqNvEaGR_1_5_l.gif
Myslíte, že kaskáda nebude?

@earendil: tak jaktoze v zadne recenzi ta VGA v referenci nepresahla spotrebu 230W? naopak v zadnem OC rekordu se nepodarilo diky nestabilite jit prez 290W? zaver muze byt jen takovi ze napajeni te karty konci nekde u 290W a to take pise na strankach AMD :)http://en.wikipedia.org/wiki/Thermal_design_power TDP a kde tedy Wiki pomuze ke spravnemu pochipeni ohledne Maximum board power ? mezi spojenim "Maximum board power" a "Thermal Design Power" je zatracene velkej rozdil :)

@earendil: mimochodem v tom clanku na ktery odkazujes na geeks3D to mas vysvetlene ;) v miste TDP muzete nalest i Maximalni prikon, coz je prave Maximum Board Power ;) a snad ti spojeni "Maximálni příkon" dostatecne objasnilo co to znamena, je to maximum energie kterou do dane karty dostanes, a tedy jak je dimenzovana jeji napajeci kaskada :)

@Shap: Dobře poprvé jsem to bral jakožto malou neznalost, ovšem teď to vypadá jako do nebe volající hloupost.
Doufám, že se mýlím a ty mě přesvědčíš o opaku."
Design Power or TDP in short, is the maximum power consumed by a device (graphics card for example) under normal / regular use. In other words, the TDP is the max power a device can dissipate when running real applications. What’s more the TDP is given for graphics card default clocks."Překlad...
Návrhová spotřeba a nebo ve zkratce TDP, je maximální množství energie spotřebované zařízením (grafika například) pod normálním/ skutečným využitím. Jinými slovy TDP je maximální spotřeba zařízení kterou zařízení může tepelně vydat v běžných aplikacích. A co více, TDP je udáno pro základní takty GK.Příště než mě začneš poučovat článkem který ti sám doporučím aby jsi pochopil, si prosímtě alespoň přečti o čem je.Tvůj překlad je špatně- Na místo TDP můžete najít,....S dimenzováním napájecí kaskády to nepřeháněj- o tom to vůbec není- nebo mi chceš tvrdit, že Msi lightening (HD5870) má TDP 500W protože to je schopna jeho (tuším 12ti fázová) napájecí kaskáda dodat?
Nesmysl viď ;)Odpovím ti i na otázku proč je TDP u HD5970 tak "vysoké" byť reálná spotřeba je nižší.
AMD totiž zjevně nezkresluje údaje ohledně TDP. To, že v současnosti neexistuje hra která by byla schopna dokonale vytížit obě jádra neznamená, že v budoucnu tomu tak nemůže být (a AMD s tím zjevně počítalo).
Podobné "problémy" měla AMD i s intelem- však proto AMD začalo u servrových CPU udávat ADP- jakožto reakce na "upravené" hodnoty TDP u intelu.
Takže ještě jednou s poučováním zpomal brachu.
Já do té doby budu věřit v chvilkovou slabost.

@earendil: kdyby sis neco o HD587 Lightning precetl, tak bys vedel ze nema 12 fazi, ale 15 fazi, coz ve visledku da az 375W, a tuto hodnotu taky najdes na vetsine webech kde tuto VGA testovali, ano uvadi 375W jako maximalni mozny prikon teto karty, viz treba http://www.tweaktown.com/pressrelease/2879/an_in_depth_look_at_msi_r5870_lightning/index.html ;) a co je dulezite, tato cast je potreba take chladit a pokud se tak nedeje dobre, tak karta zacina byti nestabilni, coz je u HD5 zcela bezne a na forech ci v recenzich jsou hoho stohy v oblasti OC kde je na tuto cast kladem duraz, takze GPU a pameti by jeste sli dal taktovat a potencila HD5 je tady neskutecne velikej, ale holt napajeci kaskada je jiz nedostatecna, nebo nedostatecne chlazena a tak OC konci, to je i priklad me HD5870-E6, prez 1GHz se na GPU nedostanu a to chladim vodou, jednoduse nedostatecne chlazeni prave PWM, to ptoto jsou pro HD58xx k dispozici celkem popularni chladice pro napetove regulatory jako doplnek k chladicum GPU ;)mas jeste nejaky teorie o vykladu TDP"Tvůj překlad je špatně­- Na místo TDP můžete najít,..." to ale neznamena ze TDP znamena MBP ;) jen jednu hodnotu nahraili jinou, AMD u zadne karty ze serie HD5 neudava TDP, udava pouze MBP :)

@Shap: Dobře sám ze sebe děláš...
12 fází pro GPU 3 pro ramm.
http://cttl.cz/index.php?gid=10679
Na základních deskách ti také nepíšou každou fázi pro paměti- stěžejní jsou ty pro GPU což bys už mohl vědět. Jistě klidně přebírej tiskovky PR oddělení, čím víc proužků tím víc adidas.375W není maximální možný příkon to je pouze přepočet na PCIE normu, což ti zjevně nic neříká, už vůbec to totiž neznamená maximální příkon. Pouze 150W na 8mipin + 75W na slot... nic víc. PCIE 8pin dovede v praxi přenést mnohem vyšší proudy tedy i v globálu vyšší wattáž...
Nehledě na to, že PCIE norma je beztak porušena, jelikož povoluje maximálně 300W na kartu... takže tyto přepočty jsou víš k čemu :-)Ohledně zpochybňování mého překladu? Měl jsi Angličtinu alespoň na základní škole? jestli se tu snažíš zpochybňovat něčím co ti vyplivne google translate tak to napiš hned, nerad bych ztrácel čas zasíláním anglicky psaných článků a vysvětlení.
Radím ti opět přečti si co již jsem napsal.
Příkon=TDP, maximum board power .... je jedno jak to kdo označí.
A o taktování toho zjevně víš opravdu mnoho :-D asi ti nedochází že 1GHz je strop jádra (nikoliv napájecí kaskády) což se potvrdilo i u lightningu (jistě nějaké zlepšení tam je ale nikterak velké, jde spíše o stabilitu napětí)...
Dobře, dejme tomu napiš v bodech co ti není jasné a vyjasníme si to spolu.
Pokud možno u mě pod profilem, ať tu nespamujeme diskutéry absolutními základy.
Jinak ti samozřejmě nebráním v tom dál tvrdit nesmysly... čekal bych, že se rád dozvíš pravdu.
Nu nic, asi to je marné... uvidíme.Přeji hezký večer všem diskutujícím.
Earendil

@earendil: je uplne jedno pro co dane faze slouzi, ja stejne jako vyrobce te karty opravil tvou informaci na 15 fazi, skouknout si to muzes i na strankach MSInikde jsem netrvdil ze 375W je prepocet z PCIe norem, takze me to nepodsouvej jako bych to napsal/tvrdil, vsechno se to da kdystak dohledat zde http://www.pcisig.com/specifications/pciexpress, a weby take netvrdi ze tech 375W je kvuli tem "normam" ale prave proto ze MBP te kary je 375W ;)preklad jsem take nezpochybnoval, ale jen upozornil nato ze i tvuj preklad ma porad stejnej vyznam jak tvrdim odzacatku, tedy ze TDP a MBP nejsou stejne hodnoty a nekteri vyrobci uvadi jen jednu a jiny klidne obe dve, AMD uvadi tu druhouo taktovani vim jen to co sam zkusim pri experimentovani a praci pro TL (job ziskany diky vtipku na stranu nVidie v podani virtualni GTX390) a za poslednych par let jsem pretaktoval nejen sva, ale i PC a jejich komponenty prave na zaklade externi prace na chladicich pro TL, strop RV870 rozhodne neni 1GHz jak tvrdis, OC rekord je lehce za 1.5GHz a to na karte Asus Matrix ;) vzduchem chlazeny ma tusim OC record Toxic nebo prave MSIl, a to lehce nad 1.2Ghz, takze kde jsi prisel na ten 1GHz jako strop?

@Shap: "nikde jsem netrvdil ze 375W je prepocet z PCIe norem, takze me to nepodsouvej jako bych to napsal/tvrdil"Problém je, že to JE přepočet PCIE norem. Nic víc. Takže je blbost, že to je omezení kaskády což tu tvrdíš ty.Víš vůbec co to je napájecí kaskáda? Alespoň základy elektřiny by stačily... Problém je, že MBP (tvoje zkratka a protože mě rád chytáš za slovo upozorňuji TVOJE) = TDP oboje vyjadřuje jediné -Příkon maximální
Thermal design power - aneb kolik watt přivést tak aby se to nerozteklo
maximal board power- aneb kolik watt přivést aby se to nepoškodilo (teplem, že) => Je to úplně to samé. Zeptej se "kolegů" nebo na EHW fóru... Doporučuji Krteqa nebo No-Xe. Když už tedy mě nevěříš- Důležité je abys přestal tvrdit nepravdy.Strop 1GHz? U většiny jader. Tak jsem na to přišel... Jestli mě tu chceš ohromovat výsledky pod dusíkem, jasně klidně můžeš... ....S těmi základy elektřiny bys třeba věděl, že lepší napájecí kaskáda ti dovede převést napětí stabilněji při větších napětích.
Méně fází = více zahřívání kaskády (vyšší odpor)ovšem to se nerovná MBP (tvá zkratka)...My ostatní (normální- přiznejme si jsi atyp) budeme dále používat TDP když budeme mluvit o návrhové max. spotřebě grafických karet... Pokud jsi to v tom překladu nepochopil tak TDP= MBP... Což je vysvětleno v odstavci nad co je to TDP... Tedy i co je to MBP...Posunout pár posuvnítek umí každý blb s prominutím.
Ovšem pochopit i něco víc už je složitější...Znám obory v kterých si dobrý, ovšem to nic nezmění na tom, že zde jsi vedle jak ta jedle.Ohledně Lightningu ještě jednou:
http://eu.msi.com/index.php?func=proddesc&maincat_no=130&cat2_no=&cat3_no=&prod_no=2008najdi tam to tvoje "MBP 375W"
Že by tam nebylo? U víš proč v prewievs i rewievs je max 375? Protože to vychází z PCIE normy...
150+150+75
Žádná věda- jak prosté...


@earendil: jaky MOJE nebo TVOJE?, vzdyt to tak uvadi AMD, ma to ve specifikacich vsech HD5 na jejich strankach, "Maximum board power" a abych to nemusel porad cele psat nekolikrat za post, tak se snad davaj zkratky kde se pouzivaj prvni pismena slovspasl jsem ze rekord pod vzduchem je nekde u hranice 1.2GHz, prijde ti vzduch obdobne reseni chlazeni jako dusik? ano na dusiku je to prez 1.5GHz, zacinas odpovidat podobne jako nas zde oblibeny stratos, tedy tak ze to vypada jako kdyby si vubec necetl nato, naco odpovidas :)a zrejme si to nepochopil ty, navic si sam dal odkaz z ceskeho webu kde to taky tak pisou :)

@Shap: Hele zajdi si ke cvokaři- MBP je TVOJE zkratka. Bereš mě za slovo protože nemáš protiargumenty, jsi zaseklej jak gramofonová deska, pak se nediv, že se obávám použít tvoje zkratky abys nenapsal to jsem tím nemyslel...
Víš co je mi to jedno...
Někomu možná stojí za to sedět u compu klikat mínusy.
Jedno je jasné nemáš pravdu, stejně jako jsi neměl s PhysX ale to už je dávná historie což jsem ti také dokázal...A pokud se ti jednoho dne rosvítí, jakože pochybuji, pak uvidíš Stratose každé ráno v zrcadle.Jasně rekord 1,2GHz na vzduchu ->...
Napájecí kaskády byly na kartách vesměs stejné jaktože tedy šly taktovat jen některá jádra tak vysoko? Už ti dojde tvůj nesmysl s MBP?
Nedojde, ani netušíš co to vůbec napájecí kaskáda znamená... Proto tvrdíš tyhle ...
Většina karet (95% se dostane kolem 1GHz), Víš my se tu bavíme o středu Gaussovy křivky nebo se to tvoje "MBP" dotýká pouze oné jedné karty na 1200mhz?
Kdybys tušil co je maximum board power...
kdybys... to bych si totiž ušetřil dost písmenek.Sapienti sat dictum...Klidně si dál tvrď nesmysly- neodpovídám, za to mi nestojíš, omlouvám se všem slušným diskutujícím, že jsem se nechal takto vyprovokovat.

@earendil: no jak at si lidi klikaj minusy nebo plusy, ja nenaklik v tomto vlakne ani jednou a neklikam je jiz docela dost dlouho, podle profilu jsem posledni ohodnoceni prispevku naklikl 30.10.2008co jsem nemel pravdu s PhysX? osvez me pamet :)a je videt jak si vybiraz z postu presne to co se ti hodi, na vzduchu je rekord RV870 na karte ktera rozhodne ni referencni, takze ma i jine napajeni

@earendil: Diit.cz
Furemark
HD5870 (TPD 188W) - 292W
GTX480 (TPD 250W) - 459W (+ 160W)ExtraHW.cz
ANNO 1440 (extraHW)
HD5870 (TPD 188W) - 353W
GTX465 (TPD 200W) - 336W
GTX285 (TPD 183W) - 351W
GTX480 (TPD 250W) - 460W (+/- 110W)kombustor
HD5870 (TPD 188W) - 399W
GTX465 (TPD 200W) - 382W
GTX480 (TPD 250W) - 551W (+/- 160W)SvetHW.cz
Metro 2033
HD5870 (TPD 188W) - 328W
GTX480 (TPD 250W) - 445W (+/- 120W)ComputerBase
Crysis Warhead
HD5870 (TPD 188W) - 305W
GTX285 (TPD 183W) - 336W
HD5970 (TPD 294W) - 392W (90W nad HD5870 coz by odpovidalo oficialnimu rozdilu v TPD 294-188 tj 108W)
GTX480 (TPD 250W) - 452W (+/- 150W nad HD5870)jak vidime karty ktere maji velice podobne TPD se krasne seradily vedle sebe tj HD5870, GTX285 a GTX465.
dale HD5970 ma v prumeru o 90W vetsi spotrebu nez HD5870 coz odpovida maximalnimu oficialnmu rozdilu 108W (294-188). Vsechno do sebe krasne zapada jenom ty mrsky GTX470 a hlavne GTX480 nam nak ujizdi :). Tj zaver si udela kazdy sam kdo tu sve TDP dost podhodnocuje. ZVlastni je ze dodneska ho Nvidia udavala spravne ale jak prisla FERMI opet zauradovalo marketingove oddeleneni a nova strategie podhodnocovani TPD je na svete. Jedina FERMI kde udavaj TPD spravne je GTX465 a TESLA - TPD250W ktera je silne ocesana defakto skro na urovni GTX465 (tam si to proste dovolit nemuzou)

@stratos.: vetsi spotrebu GTX4xx tu ale nikdo nezpochybnuje, ba naopak GTX4xx maji velkou spotrebu a naopak HD5xxx maji spotrebu velice krasnouty tu ale pises o TDP ktere oni uvadi jinak nez jak si ho vykladas ty a nekteri dalsi, stejne tak TDP uvadi rozdilne i dalsi HW vyrobci a nebo nekteri tuto hodnotu neuvadi a uvadi uplne jinou hodnotu kterou take popisuji aby si ji kazdy mohl vysvetlitja uz jsem zaslal zadost cloveku co s AMD obcas pracovne kominikuje, aby podal dotaz, aby nejak srozumitelne AMD napsalo co onou hodnotou Maximum board power u HD5 VGA mini, takze se jiste odpovedi dockame primo od tech nejpovolanejsich :)

@stratos.: a docela by me zajimalo a myslim ze nejen me, proc si takto nepsal o "spravnem/nespravnem" TDP i v dobe kdy tu byli proti sobe HD4xxx a GTX2xx, tenkrat ti to rozdilne TDP udavane vyrobci nevadilo? a prohledni si tu tabulku poradne ;)
http://ht4u.net/reviews/2009/power_consumption_graphics/index14.phpnastesti opet tam znimuji ono Maximum board power :)

@Shap: GTX285 ma TPD 188W a dle vysledku co sem postoval to plati karta se zaradila po bok GTX460 s 200W a po bok HD5870 s TPD183W tj nemam duvod si myslet ze Nvidia s TPD u te GTX285 lze naopak.

@stratos.: ty jsi se na ten odkaz a tabulku v nem vubec nepodival co?

@Shap: ja se dival na desitky recenzi kde merily vysledky spotreby a ty jasne dokazuji muj zaver, tj karty co maji podobne TDP se krasne radi bok po boku vedle sebe a jenom jedina GTX480 vyrazne vycuhuje tj je jasne ze bud maji lzive TDP vsechny ostatni karty a jedina GTX480 to ma spravne nebo opacne. Je snad jasne na kterou stranu se kazdy rozumne uvazujici clovek postavi ne? :)

@stratos.: zajimave ze te nenapadla jeste dalsi moznost, ze maji TDP spatne vsechny VGA, a treba i proto ze prave AMD u DH5 zadne TDP neuvadiale je krasne videt ze se nechces k te tabulce vyjadrit, a ani se ti jakozto fandovi ATi nedivim :)))

@Shap: proč bych se vyjadroval k nake tabulce, ja se vyjadruju k desitkam recenzi kde to proste vychazi tak ze je GTX480 totalni zrava mrcha u ktery se neda ani sedet :)

@stratos.: covece a jak zravost zase souvisi s TDP o kterem podle tebe u GTX480 lzou? ctes vubec ty posty, nebo jen tak vzdycky vygenerujes nejakou odpoved kde bude nejaka narazka na nVidii aniz by to nejak navazovalo na predchozi post?

@Shap: GTX480 ma podhodnocene TPD o tom se vyjadrilo uz mnoho recenzentu vcetne tech ceskych a nebavim se tu o DD webu :). Jenom par zelenych mozku to furt nemuze prekousnout.

@stratos.: a cetl jsi jak TDP urcila nVidia? a cetl si ty testy na webech poradne?sak sem dej odkaz kde se ti zda ze bylo prekroceno TDP nejak vyrazne a nebude problem se dopocitat cca spotreby danych VGA pokud je v testu uveden i zdroj v testovaci sestave :)

@Shap: jen takový detajlíček.. pokud se něco udává jako MAXIMÁLNÍ, jak to může být překročeno, byť ne výrazně? to je jako říct, že na tvym autě s maximálním výkonem 45 kw naměří 47(49, 50, 55)když se řekne maximální, znamená to že už nemůže být více.. chápu, když řeknou kombinovaná spotřeba, nebo průměrná, nebo typická.. ale maximální je maximální a ta nikdy nebude vyšší.. ne pokud něco nebdue špatně - buď je falešná maximální hodnota, nebo došlo k chybě k měření.. k čemu se přikláníš ty?

@TOBiAS02: ja se nepriklanim k nicemu, me osobne je ta hodnota ukradena at je maximalni nebo minimalni, ja od daneho produktu ocekavam neco co jsem videl pred koupi pri testech, ale ani spotreba, ani TDP, ani zadna podobna hodnota to neni, zajimaji me proste uplne jine hodnoty, takze at si tam napise vyrobce co chcerekl bych ze hlavni co me na produktech v IT zajima, je jak me budou slouzit pri cinnosti co nanich planuju delatad. vykon u spousty aut je vyssi/nizsi nez jaky udava vyrobce a to treba o prave 1-2kW oba smery, moje auto ma mit podle TP o 6kW mene nez co me namerili v ABT, a vyjadreni upravce takove, ze u toho motoru a auta co mam je to celkem bezne a odchylka muze byt klidne i v radu 10kW i u uplne noveho auta

@stratos.: GTX470 mam pretaktovanou o cca 23%, HD5870-E6 mam pretaktovanou o cca 11% to ma na spotreby samozdrejme take vliva jsem docela zvedav jestli se nekdy v pristich ovladacich dockame u Ati opraveni one chyby s obrazem pri vyhlazovani, ktera by podle EHW mohla cinit i 10% vykonu dolu http://extrahardware.cnews.cz/maly-pruzkum-kvality-obrazu-geforce-gtx-400-radeonu-hd-5800

@Shap: a kdy se dockame toho ze v METRU nebude mit GTX480 vyblity obraz jak poukazal Mirek na ExtraHW :)

@stratos.: Předpokládám že až tehdy, až přestaneš psát ty tvoje bláboly. Doufám že je nikdo nebere vážně :-) Mohu ti ukázat krásně vyblitý obraz i s kartama ATI a Fermi jej bude mít krásný, takže tento argument bych dal na stejnou hromadu nesmyslů, které zde od tebe můžeme číst :-) Předpokládám, že odpovíš něco velmi chytrého, co bude zase vyzdvihovat karty ATI. Nech už toho a raději se jdi pomazlit se svou ATI. Vytahuješ argumenty, které každý rozumný člověk musí pochopit, že jsou chytré asi jako ATI, která leží na stole a není zapojená do počítače.

@Stratos..: ano Mirek Jahoda nikdy nepoukazal na vyblity obraz s GTX480 a nedolozil ho screenem :). Opravdu si me pobavil

@stratos.: Tady nejde o screenshoty, ty ti udělám klidně taky a dokonce i takové, kdy ATI bude mít obraz černobílý. A takovou kartu by si přeci někdo nemohl koupit. Jenže pak přijde Stratos. a zase něco najde i na tom černobílém obraze. Jestli budeš mít zájem, klidně ti mohu udělat screenshoty s vyblitým obrazem karet ATI :-) Právě proto tohle není žádný argument.

@Stratos..: takze Mirek Jahoda si ten screen sfalsoval chces tim rict? :). Pokud si to myslis mel bys smerovat svoje namitky asi rovnou jemu :)

@stratos.: http://extrahardware.cnews.cz/maly-pruzkum-kvality-obrazu-geforce-gtx-400-radeonu-hd-5800#etw
"Přinejmenším vypadají barvy na GeForce GTX 480 jako "vyprané", textury v pozadí bohužel nejsou příliš kvalitní, a tak může být větší rozmazanost na GTX 480"

@stratos.: Číst tyhle diskuze je fakt zážitek - krásně strávený večer.
Pokud si myslíš, že Fermi 480 má v Metru vyblitý obraz, doporučuji dříve než tyto informace budeš dále šířit, tak se s Fermi setkat "naživo" a Metro vyzkoušet, aby jsi zjistil, že pomlouvání není na místě. Co je vtipné, tak že o vyblitém obrazu nás zatím informoval jenom PCT, který poslední dobou nepůsobí nezaujatým dojmem. Kvalitově se začíná snižovat na úroveň DDWorld. Je zajímavé, že si této odlišnosti nevšiml nikdo jiný, jenom redaktor PCT.

@jeronim77: odkaz neni z PCT ale z ExtraHW :)

@stratos.: S tím odkazem na EHW jsi mě předběhnul.. tohle je jeden z posledních mála webů, kde informace nemusí být zkreslené. Ovšem důvod proč tomu tak je již podemnou popsal Shap. Jeho zdůvodnění je i celkem logické

@stratos.: mimochodem vyblitej obraz to neni, jsou tu prekreslovane alfaplane koure kterich nVidie GTX4xx pocitaji vice nez ostatni VGA jinych vyrobcu, kdyby sis nekdy precetl ty clanky cele a treba i diskuze unich, tak bys nato taky prisel ;)

@Shap: a proc kour pocitaj jinak nez vsechny ostatni karty? Jinak mas na to naky oficialni stanovisko primo od Nvidie protoze rohle by taky mohl rict kazdej ze je to z tohoto duvodu :)

@stratos.: proc pocitaj neco jinak kdyz maji jine moznosti, kuprikladu v PhysX? to je jako proc ATi spatne pocitaji lody pri zaplem AA v nekterych enginech (ve stejnem clanku na EHW ktery tu jiz nekolikrat zaznem) nebo proc v nekterych enginech ATi grafiky nemaji nativne vyhlazovani vubec? odpoved je snadna: OVLADACE a podpora pro ruzne technologie :)

Nemoznost vymeny chlazeni bez ztraty zaruky

koukam ze nvidie zacala sroubky na vymenu chlazeni prelepovat samolepkami ktere kdyz zrusite tak prijdete o zaruku... to me tedy vubec netesi... dalsi duvod zustat u ati (bez vodniho chlazeni uz ani ranu a prijit kvuli nemu o zaruku? bezvadne)

@AlesiBoss: Přelepování bezpečnostní nálepkou není záležitost nVidie, ale výrobce grafické karty - tedy Gainward. Další výrobci jako Asus nebo Gigabyte tuto nálepku u GTX 480 nepoužívají.

Máš něco na srdci?

100% GEEKsměs bez elektroniky 100% GEEKsměs bez elektroniky
nahoru