Všechny komentáře k článku:Gainward GTX 480 - nejvýkonnější jednojádrová grafika

Počet čipů - OMG

záleží snad na počtu čipů? koncového zákazníka by mělo zajímat jen cena a výkon (vlastnosti), ale architektura je složitá věc, do které by musel být čtenář nejprve zasvěcen, aby pochopil.. ne vždy je lepší dělat menší čipy, ale rozhodně neznamená, že dvoučipová karta je špatná.. tak na mě totiž působí formulace "která však má grafické čipy dva".. to je jedno, pokud její cena je úměrna výkonu a ne jako v případě poměrně předražených Fermi..počet jader a jejich struktura je čistě problém výrobce, ale to, že se jedná o grafickou kartu se nezmění ani při 4řech čipech, takže by se to nemělo považovat za jakkoliv významný jev.ano, je pravda, že jádro nVidie je výkonnější, ale je také větší (o tom se nikde nepíše) a proto ATi dává dvě menší.. výkonnostně je to sice, pravda, horší řešení v přepočtu na počet jednotek, ale důvod, proč se to tak vlastně dělá je výroba. kdyby byl 40 nm proces 100% bezchybný, nVidia by měla výhodu, takto se ale jedná o čip, který je téměř nevyrobitelný a se spoustou chyb, tedy ovlivňuje to jeho výkon i vlastnosti a životnost, ale hlavně cenu..problém je v tom, že ze stejného waferu při chybě na stejném místě, kdy ATi na plochu 4 nVidia čipů dá 9 svých, jedna chyba znamená amen jednomu čipu nVidie, ale jen jednomu čipu ATi, takže zatímco nVidii jedinou chybou (a že jich rozhodně je více), nVidie ztratí čtvrtinu zisku, zatímco ATi jen devítinu.. a to je fakt, který ATi přiměl k výrobě meších čipů.. je to méně výkonné, ale ona jich vyrobí početně více než dvakrát tolik ze stejného zdroje a tedy může si dovolit ze dvou vytvořit jakoby jeden, čímž získá ještě větší výkon, než má jedno velké jádro a přitom neztratí stále tolik produktu..a ve výsledku je podstatné jen to, že HD5970 je prostě nejvýkonnější grafika světa, která má spotřebu o málo větší než druhá nejvýkonnější grafika světa, GTX480, má o poznání vyšší výkon, stojí úměrně více, podporuje stejné technologie, avšak má mnohem lepší provozní vlastnosti a vyšší životnost a schopnost taktování.. přidám k tomu třetí nejvýkonnější grafiku světa, HD5870, ta má lehce menší výkon než GTX480, přesto stojí razantně méně a má razantně lepší provozní vlastnosti včetně teplot a při přetaktování, pro které narozdíl od GTX480 prostor má, se stává vyrovnaným soupeřem, který má ale stále lepší provozní vlastnosti a stále stojí méně. čtvrtou nejvýkonnější je pak GTX470, která by se přetaktováním dostala na úroveň HD5870 (cenu má stejnou už teď), ale jelikož je to zmetkové jádro které pro GTX480 nešlo použít, obával bych se stability přetaktování stejně, jako dosažení stejných limitních hodnot vlastností, které má GTX480..objektivně shrnuto, GTX480 je jistě nejvýkonnější jednočipovou grafikou, ale koho zajímá, kolik má čipů, když má horší provozní vlastnosti, než dvojčipová HD5970 a přitom je horší i ve výkonu? GTX480 je možná nejvýkonnější co se čipu týče, ale rozhodně není nejvýhodnější.. srovnáme li pro a proti, jeví se mi jako nejvýhodnější grafika HD5850, jelikož výkonu má dost, nestojí extrémní peníze a rozhodně se nejedná o radiátor..co se GTX480 týče, k čemu ta grafika je? kdo chce ultimátní výkon, volí HD5970 x2, kdo chce více monitorů, volí ATi, protože GTX potřebují 2 grafiky což poměrně velmi ztěžuje možnosti chlazení, kdo chce nVidii, volí nVidii, ale nevolí rozumem.. ne dnes.. kdysi platilo, že envidia = závist

@TOBiAS02: Myslim že tam, kde nefunguje spolehlivě SLI nebo Crossfire je počet čipů na kartě celkem důležitej protože tam běžej i dvoučipový karty jako jednočipový.

@Petr_Nový: teď nevím, jak to myslíš, ale x2 grafiky jsou vlastně CF/SLI samostatně na jedné kartě..pokud ale počítač detekuje kartu jako jednojádrovou, je to jedno, protože dělení pro jádra obstarává CF/SLI můstek na kartě, kde ve výsledku se stejně potí oba čipy..smozřejmě škálování tohoto systému není dokonalé a znamená ztráty ve výkonu, jenže ztráty ve výkonu jsou stále menší, než ztráty v zisku (produkci).. to je důvot, proč to ATi vychází a nVidia je ve srabu - nVidia udělala očividně hodně dobrý čip, ale ten čip není možné vyrobit současnými prostředky.. nVidia by se na to měla vykašlat a investovat do tvorby čipu nového, pro generaci 28nm, místo ztrapňování se lhaním kolem Fermi jen aby zvedla prodeje..

@TOBiAS02: Teoreticky s tebou souhlasim, ale v realu je to tak že opravdu někdy i dvoujádrová grafika (jedna s dvěma čipy nebo CF/SLI) nejede na obě jádra. Často to vyřešej ovladače ale né vždycky. Navíc se pamět grafik nesčítá a když koupíš HD5970 tak nemáš 2GB jak se uvádí ale jenom 2x 1GB na grafice.

@pavel.martinovsky: ano, logicky.. každé jádro má pro sebe k dispozici 1GB paměti..zatím jsem se nesetkal s případem, kdy by CF/SLI na grafice vůbec nefungovalo, spíše má odlišné škálování - někdy je výkonnější, někdy ne, to vše ale mají na svědomí ovladače.. v 99% případů alke bude hD5970 prostě nejvýkonnější grafikou.. ono to bude ve 100%, protože jde o hrubý výkon hardwaru... druhá věc je už ale ten hardware využít a to není problém jen na straně vývojářů programů a her, ale také na straně ovladačů, to uznávám..

@pavel.martinovsky: jak sám říkáš - dvoučipovka má jisté nevýhody, ale jednočipovka s velkym čipem taky, extrémní spotřebu a zahřívání (spotřeba = vyzářená energie - pár mW která se přeměnily na signál monitoru a pohon fanu), s tím související nízkou životnost a dvouletou záruku garantovanou jen evropskou unií.. větší čip je stále horší v teplotě a slabší na výkonu, než dvojice malch čipů, jejichž škálování nepřesahuje 50% jednočipu..

@TOBiAS02: Dobrý den,některé Vaše názory jsou hodně jednostranně podané, ale alespoň zkusím reagovat na ty věty, které mě zarazily. V tomto příspěvku spojím odpověď na všechny vaše příspěvky.O tom, že je jádro Fermi výkonnější, ale také větší, je v článku napsáno, takže se o tom píše. Podle měření má 529mm^2. Tento přesný údaj jsem díky vaší reakci nalezl. V tabulce je přibližně 500mm^2. Ve stejném odstavci píšete a vysvětlujete úplně to samé, co je popsáno v podrobněji v článku.Hezky také popisujete chyby při výrobě čipů, avšak kdyby to bylo tak lehké jak popisujete, tak z pásů nevyjede skoro ani jeden čip a TSMC může rovnou vyrábět čipové suvenýry. Jedna chyba rozhodně nedělá s čipu zmetka. Opět je popsáno v článku, že právě kvůli horší výrobě nebylo možné prodávat jádra Fermi s 512 jednotkami, ale jen 480. Podle kvality daného kusu čipu se posuzuje, do jaké grafiky bude umístěn. Zanedlouho přijde i GTX 465 a ta bude mít jen polovinu jednotek při stejně velkém čipu, takže je to sice těžké vyrobit úplně správně, ale čipy s pár chybnými sektory se také prodají dobře.Dále píšete, že HD 5970 má vyšší spotřebu než GTX 480, což pravda také není. Co se týče přetaktování tak ano, GTX 480 vzhledem ke svým teplotám nejde o moc více, avšak jen málé procento zákazníků taktuje, takže považovat to za zápor může jen ten, kdo prostě taktovat chce. Ten si pak koupí HD 5870. Ostatním je to jedno.Nikde není psáno, že je GTX 480 nejvýkonnější grafickou kartou. HD 5970 je ve většině her určitě lepší. Což přímo směřuje k další mýlce a to té, že jste ještě nezažil, že by SLI/CF na grafice nefungovalo. To víte, že nefunguje a to dost často. Neb SLI/CF je právě v případě vámi zmiňované HD 5970 přímo závislé na ovladačích, které musí hru podporovat. Každou chvíli tu pak máme nové hry, kde je HD 5970 dokonce pomalejší než HD 5870, neb ovladače pro ni zatím nejsou. A ano, reakce AMD/ATI je hodně rychlá a do pár dní už to vše funguje, ale říci, že jste se s tím nesetkal znamená, že tu kartu nemáte, nebo máte a hrajete své oblíbené starší hry a nezkoušíte ty nejnovější.I přes spontánní styl vašeho psaní děkuji za podněty.František Novák - redakce CZC

@František Novák - CZC: Kam se pod to muzu podepsat?

@ROMAN SOVA: Dobrý den,děkuji za uznání. Avšak možná škoda, že souhlasíte se vším. Diskuze o podobných tématech bývají zajímavé, pokud diskutující řeší neshody či doplnění věcně. Když byste s něčím někdy nesouhlasil, tak to také napište, ať máme co zlepšovat a řešit my.Děkuji,
František Novák - redakce CZC

@František Novák - CZC: Já se do podobných flame nepouštím, ale přesto mne svrběly prsty, jsem rád, že jsem vydržel číst až sem a nemusím to psát sám. Jedna drobná výtka slovíčko "neb" = "neboť" a je má tedy jiný význam než "nebo".
To jen aby ten souhlas nebyl bezvýhradný ;-)

@Anonymní uživatel: Dobrý den,v článku slovíčko "neb" ani jednou není, v komentářích ho používám dvakrát a pokaždé ve smyslu "neboť". Co máte přímo na mysli?S pozdravem,
František Novák - redakce CZC

@František Novák - CZC: Sakra a co mám pak vytknout ;-)

@František Novák - CZC: Zdravím, Pane Novák,
velmi mě těší Vaše reakce jako zaměstnance CZC..
dovolím si se trochu obhájit, než začnu oponovat - jsem tak znechucen neustálým omýláním kravin okolo Fermi, že žádné články (ani tento) nečtu celé.. chtěl jsem, abych se ujistil, zda se tam o něčem, co jsem řekl, nemluví, ale při té délce jsem ztratil chuť.. kdyby se takto sáhodlouhé články psaly i o konkurenci, bylo by to zde alespon férové, ale nějak mi uniká, že s poměrně ztracenou Fermi si dáváte tolik práce ale o Radeonech píšete pár odstavců..vezmu to popořadě:
-velikost - musím se omluvit, opravdu jste ji zmiňovali, to je chyba na mé straně.-výroba čipů - ano, vědomě jsem to velmi zjednodušil, protože se jedná o poměrně komplikvanou věc.. v praxi to ale opravdu dopadá tak, že i s menším počtem linek, AMD produkuje VÍCE NEŽ DVOJNÁSOBNÝ počet RV870, než nVidia konkurenčních GF100 a tedy pokud staví na dvojicích, je z nich stále schopna postavit více grafických karet za pro ATi stejnou cenu a pro výrobce a uživatele vyšším výkonem - v tom je jádro celých finančních rozdílů - kdyby bylo jádro GF100 lépe vyrobitelné, situace by mohla být opačná - vyrobili by stejně ale ATi by udělala jen polovinu výsledných grafik s vyšším výkonem a stejnou cenou (čipů) a pak by nVidia měla prostor konkurovat cenou, hlavně by ale měla dvojnásobný počet grafik do prodeje.-spotřeba HD5970 - nechtěl jsem být tak jednostranný a ješitně říkat, že je ATi naprosto nejlepší.. v těch spotřebách, pokud vezmeme vpotaz papírové TDP, nVidia má menší, reálně však podle některých testů má více, podle některých méně, je těžké se v tom orientovat, co je pravda a co ne, avšak dá se z toho usoudit, že výsledné TDP je přinejmenším stené.. pokud ale vezmu v potaz chlazení, musel by být naprosto stejný problém chladit HD5970, pokud by měla stejnou spotřebu, ale HD5970 jde podle mě uchladit mnohem snadněji a nepotřebuje k tomu tak extérmní chladič, takže ano, osobně si myslím, že reálně má HD5970 nižší spotřebu a cenu a vyšší výkon než GTX480.. ale stále se nejedná o parametr klíčový - v highend počítači je spotřeba +-kilowatt, jde ale právě o možnosti chlazení - ne každý má v počítači vodíka i když má lepší počítač a dvojice GF100 si myslím by byla záhul i pro vodníka..-CF/SLI - ano, přznávám, mám jen HD4670 a GF6100 (igp), takže toto nemohu posoudit a zkušenosti mám jen z testů nebo od zámých (s HD5970 mám 0 známých) a zatím jsem právě neregistroval v testech nic takového, ale bude to tím, že testy se provádí až jistou dobu po vydání hry a to už, jak říkáte, ovladače jsou.. smozřemě nepopírám, že ovladač je základem všecho..-a abych to doplnil - po pravdeě jsem byl vždy zastáncem monočipu, jsem si totiž vědom velkých ztrát na CF/SLI/jiném režimu.. jenže tomu jsem věřil jen do doby, než prostě technika předběhla technologii - jádro čipu GF100 je z mého pohledu velmi vyspělé a defacto téměř dokonalé, ale pohřbívá ho právě jeho nemožnost vyrobit - na současnou výrobu je prostě téměř složité a výroba má spoustu zmetků.. samozřejmě, výrobci to hraje do karet, protože chyba, pokud nezasáhne životně důležitý prvek, ovlivní jen funkci bloku, tedy omezí počet jednotek a výrobce jej použije pro nižší model. co z toho ale vyplývá je fakt zhoršených vlastností a rizika disfunkce následkem chyby, která se projeví jen ojediněle.. (jako vadný sektor na disku - neví se o něm, dokud se nenahraje záznam právě do něho, pak je zle, data jsou ztracena, u čipu by to molo znamenat zásek, pád,..) takový čip má také horší vlastnosti, než by měl menší čip, se stejným počtem jednotek implicitně a bezchybně vyrobený.. takový by jistě měl větší výkon a mnohem nižší spotřebu (i mrtvé části jsou napojeny k obvodu napájení a jistě jsou tam občas části, které se snaží pracovat a užírají proud a všechny části vodiče mají nějaký odpor, kdy vzniká teplo.. tedy takový čip se i více zahřívá.. na jednu stranu velmi chytrý systém, na druhou stranu, představte si, že se jedná o pneumatiky auta - Ferrari potřebuje opravdu dobré gumy a tak dostane jen ty nejlepší.. pokud se ale při výrobě některé segmenty běhounu odlomí, výrobce usoudí, že takovéto pneumatiky už stačí jen pro průměrnou škodovku a vy, jakožto majitel škodovky, dostanete obrovské gumy, které mají stejně vzorku jako malé barumky.. ve výsledku rozdíl nepoznáte, nebo bude rozdíl, jaký jsem zmínil výše.. ale jde hlavně o ten pocit - nebyl by to divný pocit?
já vím, poněkud divné příklady, ale možná pak člověk nebude se vším tak spokojený, jako je teď :)
nižší modely by byly výkonnější na vlastním čipu, ale to chce jednak investici do projektace (to nebude tak těžké), ale co by pak nVidia dělala s nepoužitelnými zmetky? sice by měla lepší produkt, ale peněz by jí ušlo více..-záruka - ano, poslední článek, který jsem o Fermi četl, to je už dávno.. obsahoval ale oficiální materiály nVidia, kde se mluvilo o záruce 1 rok, a ta, pokud se nemýlím, v Americe platí ještě dnes..Děkuji za Vaši reakci a těším se na další :)

@TOBiAS02: Dobrý den,teď už odpovím stručně a rychle. Ten největší odstavec, resp. jeho poslední dvě třetiny, pro nás nemají moc smysl, je to totiž celé úplně nepodstatné. Výrobce svůj čip totiž dělá tak, aby se právě při jeho částečném poškození při výrob dal dále využít v méně výkonných modelech. To, že je tam kus bloku vadný a vypnutý ale dle mých informací a zjistění ničemu nevadí. Kdyby ano, tak to výrobce nemůže poslat do prodeje. Navíc zákazník má záruku, ve většině případů ony tři roky a ze statistik předchozích sérií grafických karet obou výrobců rozhodně neplyne fakt, že by byly modely s "ořezanými" jádry více reklamované.Za reakci není zač, snažíme se o to, pokud je věcně na co reagovat.S pozdravem,
František Novák - redakce CZC

@František Novák - CZC: je mi jasná, že čipy jsou navrženy tak, aby se daly použít i s menším množstvím jednotek.. nevím ale co je na tom nepodstatné..
ovšem výroba čipu plného i ořízlého stojí stejně a výrobce samozřejmě upřednostňuje vyrobit plný a tedy dražší čip.. a jisě mi dáte za pravdu, že vštší čip znamená větši šanci na "zásah" chybou a nutnost udělat čip neplnohodnotný..a nejsem ji jist, zda nVidia je spokojena s výrobou tolika čipů ořezaných, Vy tvrdíte, že s tím přímo počítá.. ano, počítá, ale rohodně to nechce.. bohužel současný a ještě dlouho budoucí stav výroby je silně proti ní..všichni spoléhají na 28 nm, ale dovoím si rýpnout - jak něco ještě menšího, může být snadnější vyrobit? všichni věří, jak 28nm všechno spasí, ale já to spíš vidím na ještě problémovější výrobu - co myslíte vy?v případě úspěchu by to byla pro Fermi spása, jenže v takovém případě už by se mohlo (a ono to tak bude) zdvojnásobit Cypress do jediného čipu ve spojení s novou architekturou a čip bude stále stejně velký a stejně náročný na výrobu.. GF100 by se tím dostalo na stejnou velikost, ale výkon by rozhodně nestoupl tak, jako v případě ATi a tak si myslím, že ani v ideálním stavu 28nm se nVidii nebude dařit vyrábět více, než teď - bude muset taky přidat jednotky aby udržela výkon, ale tím se zase zvětší a bude opět riskovat nemožnost výroby.. nVidia prostě vytvořila čip, který je tak dokonalý a nadčasový, že jej bohužel nelze vyrobit..
btw mám rád obsáhlejší reakce, rád si poslechnu další argumenty.. :)

@TOBiAS02: Dobrý den,bohužel vaše představa o výrobní technologii a jejích chybách je dost obecná, a proto hodnotíte a porovnáváte nehodnotitelné a neporovnatelné.Zkusím nastínit trochu více detailů, aby to bylo pro ostatní možná trochu jasnější, než se zde celkem povrchně bavíme. Začnu trochu z historie a skončím u současnosti.40nm výrobní proces je obecně zatím jedna velká chyba už od začátku. Vlastně prvním, v plné produkci (to je ale opět s "", neb to byl fakt jen test jádra ověřeného na 55nm) otestovaným jádrem, bylo RV740, které bylo součástí grafické karty ATI HD 4770. Ta byla vydána celkem nejasně a pro mě do teď nepochopitelně (tzn. nikde se o ní moc nemluvilo a najednou byla na trhu). Což o to, ale důležité je, že to byl vlastně ostrý test neprověřeného výrobního procesu. Asi nemusím zmiňovat, že to šlo ztuha a ač se o tom nemluvilo a nepsalo, můžeme si domyslet, že výnosnost nebyla nejrůžovější. Ale s tím se počítalo.AMD a i Nvidia chtěli jíž jít kupředu a pro plánovanou architekturu bylo potřeba menších jader. Ač totiž aktuálně RV870 z HD 5870 označujeme proti obřímu Fermi jako "malé" jádro, dovedete si asi představit, kolik by bylo 330mm^2 na 55nm (rada - takové druhé Fermi). Dokonce některé odhady z Q4 2008 tvrdily, že GT212 (nyní GT100, tedy Fermi), přijde na trh v Q2 2009 a možná, když se TSMC 40nm výroba povede, už v Q1 2009. Takže nakonec jsme to měli na konci Q1, ale 2010 a to ještě s velkými problémy. Opět jsem ale odbočil.Důležité je, že jak předpovědi i výrobci 40nm proces po úspěchu vyladěného 55nm procesu chtěli, u TSMC to nešlo podle plánu. Jenže zastavte dva giganty v dlouhodobých plánech. A tak se prostě u TSMC snažili. Chtělo to čas a ten nebyl. Takže plán se změnil a výroba se ladila za těžkého pochodu, který začalo RV740. Standardy šly pryč, úspory také, jen ta jádra solit. No ale až do dnešního dne, a to tedy rok a půl po zavedení první 40nm linky, je problémů stále více než dost.Po tom, co už prý vyřešil "contamination" problém, přichází další a další, které se řeší za pochodu. Jeden za zajímavých, na který jsem narazil je ten, že při výrobě dochází k rozdílné velikosti tranzistorů. Jedná se prý pouze o nanometr rozdílu, ale pokud je jeden tranzistor takový a druhý makový, musíme očekávat velké problémy s maximální rychlostí čipu apod. Pak asi čtete po webech zprávy, že 40nm výroba se na začátku roku 2010 zlepší a čipy budou dodávány rychleji a výtěžnost bude větší a kdesi cosi. Jenže s odstraňováním jednoho problému za druhým a hlavně za pochodu, kdy linky v tchajwanské továrně FAB 12 jedou neustále, se kupí a další a další problémy. Jeden z nich je také právě ona "funkční zmetkovost" jader, kdy není lehké vyrobit to tak, aby to onu funkci vypnutí a bezproblémového chodu mělo.A řešení? Zatím není. Chyb, které při výrobě čipu nastávají je stále hodně nevyřešených a vlastně jen zlomek byl zatím vyřešen. A AMD i Nvidia chtějí další a další čipy.Takže 28nm výroba je očekávaná, je do ní vkládáno hodně nadějí, ale podle toho, co jsem vám zde snad srozumitelně a stručně popsal je to proto, že 40nm prostě chtělo jen laboratorně vychytat, než se uvedlo do výroby, což by se tedy s 28nm nemělo stát. Vlastně i 28nm nebylo zprvu zamýšleno, přeskočila se už asi oficálně 32nm výroba. Otázka proč by měla být jasná - potřeba delší přípravy. Ač je totiž 40nm ve stavu v jakém je, nemůžeme už se vrátit k 55nm a říct si, že 40nm nejdříve poladíme laboratorně a potom to zkusíme sériově. Takže 40nm tu s námi ještě nějaký čas bude. Podle mého odhadu a podle toho, co jsem zde popsal za minulost bych čekal, že se TSMC a v té době už i GlobalFoundries poučí a nespustí nic do výroby, dokud nebude proces řádně otestovaný. Na začátku roku 2010 TSMC oznámilo, že pokud to půjde ok, tak v Q3 2010 začnou s 28nm. To se ale nestane. Takže Q3 2011 nejdříve? Podle mě realita a možná bych šel ještě dále.No snad jsem to nepřehnal, ale aspoň teď víme, o čem a proč se bavíme.S pozdravem,
František Novák - redakce CZC

@František Novák - CZC: jedna věc mě překvapuje - proč jsem něco takového ještě nečetl? fascinuje mě, že i přes množství informací, které máte, nenapíšete téměř žádný článek - kdyby jste napsal o tomto, myslím, že by jste byli jeden z málá serverů, který informoval o větších detajlech, než přímo na tuto problematiku specializované české servery..k tomu, co jste řekl nemám jedinou námitku, souhlasím s tím, protože je to pravda.. snažil jsem se to jen trochu zjednodušit..mě osobně vydání HD4770 také trochu překvapilo, nikde jsem se moc nedočetl jak vlastně opravdu vznikla, až zde od Vás.. už tehdá se ale vědělo, že s tou 40nm výrobou to není tak dobré a pokud to brali, byť jako ostrý test (produkt testu se nevyhodil, ale prodal), tak měli usoudit, že stav e špatný a je potřeba ladit.. jenže jediný, kdo z výrobců (AMD, ATi, Intel, nVidia) mohl být proti byla nVidia - byla si vědoma, že dělá velké jádro a že problém s výrobou by ji způsobil potíže.. ostatní počítali se 40nm tak jako tak a čipy přizpůsobili velikostí.. zde je nutno podotknout, že proti grafickým jádrům jsou zase prťavá jádra procesorů.odsud možná plyne větší počet linek pro nVidia - že by jí TSMC kompenzovalo neschopnost vyrobit jejich čip?Ohledně 28nm jsem ale stále skeptický - jelikož v takovém případě bude tranzistor ještě menší, bude mít tento proces stejné a větší problémy, než 40nm a bude na něm tedy nejprve ještě více vychytávání, a to bude stát velké finanční prostředky a hodně času.Každopádně základem zvyšování výkonu je menší výroba - na stejně velký čip se vejde více tranzistorů. jsem zvědav, na kolika nanometrech bude limit lidstva, každopdně asi všem je jasné, že nic menší než attometr není a ani se na tuto hodnotu nemůžeme přiblížit. mluví se o hranici 11nm, ale nejsem fyzik, abych o tom mohl spekulovat.. ale jistě je někde "konec", přes který se nepujde dostat a výkon čipu, jaký známe, zůstane už navždy stejný, bude se měnit snad jen se zvýšením taktů..
Tato diskuse mě opravdu baví :)

@TOBiAS02: Tohle diskuzní vlákno je jedno z nejzajímavějších, jaké jsem v poslední době měl tu čest číst. Pan Novák působí dojmem člověka, který má široký rozhled a v problematice se vyzná - tím tedy moje poklona.Ohledně problematiky dvoučipových grafických kaet (nebo dokonce CF dvoučipových) je skutečně pravdou, že na to musí být vyladěné ovladače a ty se ladí až dodatečně. Proto i já jsem velkým odpůrcem dvoučipových karet. Ale co se nestalo, navzdory tomu jsem si dvoučipovou 4870X2 pořídil. Trochu to ve mě stále hlodá, že jsem raději nezůstal věrný vlastním zkušenostem a zkusil tento pokus, zvlášť pokud pochází od ATI, která ovladače ladí až dodatečně a stejně nikdy 100% odladěné nebudou. Stejné je to i u neustále omílané 5970, kterou fanATIci upřednostňují před Fermi. Když člověk hledí jenom na testy (ne)seriózních webů, a pak jenom papoušku názor Obra, pana Stacha,.. bohužel. I navzdory tomu, že jsem majitelem dvoučipové grafiky, tak bych ostatní od toho chtěl odradit a ať se raději dívají po 5870 nebo Fermi. Nakonec bych radil se přiklonit k Fermi, protože ve skutečnosti není tak hlučná jak se všude píše (pan Novák mi v tomto snad dá za pravdu), v idle při ventilátoru na 40% je tichá, v zátěži při ventilátoru na 70% už to je sice hukot, ale v kvalitní skříni, se sluchátkama na uších při hraní to vadit nebude. Tolik moje zkušenost s Fermi 480, kterou jsem viděl ve SLI v provozu.
Neustálé hádky ATI vs. nVidii nikam nevedou, těchto žabo-myších hádek se již vyvarovávám, stejně se každý přikloní k tomu co vyhovuje jemu a ne co vyhovuje jeho sousedovi, který snědl všechnu moudrost světa. Faktem je, že ATI má lepší provozní vlastnosti, ale výkonově se občas dotahuje za pomocí "šizení obrazu". Tak nedávná kauza o Total Wars, u které ATI mělo snahu o co nejrychlejší nápravu. Není se čemu divit, každá firma si chrání svou pověst a u mezinárodních společností to dělá nemalé finanční zázemí.
Fermi je velmi dobrý začátek, ale pro odladění je ještě potřeba udělat velký kus práce. Byli bychom bláhoví, kdybychom od nové technologie (z pohledu nVidie) hned u první karty čekali zázraky. I pro mě byla prvních pár dní zklamáním, zkušenosti mě ale přesvědčily, že tak žalostné to není. Jestli nikdo nespěchá na nákup, doporučuji počkat na další generaci Fermi. Nejsem sice zastáncem čekání na to co přijde, ale v tomto případě se bude jednat o lepší volbu.Ohledně výtěžnosti 40nm u TSMC to bylo velmi hezky napsáno, stejně tak i problematice jednotlivých jader. Jen zůstala otevřená otázka neustálé miniaturizace a kam až povede. Celé to zmenšování se s určitosté zastaví na limitující velikosti křemíku, tedy asi 7nm.
Nejlepší cestak řešení výroby výkonných čipů o 3mld tranzistorů (což je nerentabilní) je, jak to dělá ATI a teď je tomu i u Fermi. Tedy místo jednoho velkého čipu je podle mě lepší udělat několik čipů a ty pak spojit dohromady. Tohle je podle mě cesta k nejlepšímu řešení.

@jeronim77: Z mého pohledu naprostého laika je toto vlákno sice naprosto úžasné a přináší spoustu informací, avšak z vašich (na mne velmi dobře působících) obsáhlých příspěvků mám vcelku i rozporuplný pocit - působíte na mne, jako byste se báli říci to, co kraťoučké výstřely běžných uživatelů se nebály říci (aniž by si svůj názor obhajovali či dali najevo, že k němu mají podklad).Fermi je zupr trupr věc, leč její výkon měřený na fps je prostě víceméně vedlejší, byť Nvidií vítaný jev. Podporuje technologie, které se ve většině her nevyužijí. Nebo že by vůbec s hrami neměly nic společného?Už jsem viděl více příspěvků v diskuzích, které Fermi chválily. Ale nebyly od uživatelů hráčů, nýbrž těch, kteří jakkoli používají grafické karty ke své práci. Těm lidem bylo jedno podání grilu s větrákem, karta má pro ně přednosti, které Ati poskytnout nemohla.I bych prosil, abyste můj názor usměrnili na správné koleje, nejsem si jist, zda jsem si to dobře přebral. Děkuji

@kadlis: osobně jsem celou dobu stejného názoru.. fermi je skutečně dobré jako výpočetní čip, oproti svým tesla předchůdcům naprosto famózní.. jenže o tom by se mělo diskutovat v článku Tesla C2060.. zde jsme pod GTX480, což je bez debat herně zaměřená grafika.. a ta se i přes svůj fermi čip poměrně ztrácí.. ano, ve prospěch nVidie možná dočasně hrají ovladače a semtam i to PhysX, ale nebudeme si nalhávat, že když pomineme "nej", tak celkově jsou prostě lepší a výhodnější ATi, byť nejvýkonnější jednočip vlastní nVidia.. (jeho výkon proti RV870 ovšem neodpovídá jeho tranzistorovému potažmo velikostnímu rozdílu)

@TOBiAS02: Jenže právě to "podivné" CUDA umožnilo rychle vyvinout kvalitní ovladače, které nezaostávají i přes to, že bylo potřeba využít dobré programovatelnosti GPU. Osobně si myslím, že tady jsou ještě možné rezervy a při příchodu nových SW technologií, se výhoda komplexnějšího přístupu nVidie může projevit.
Je fakt, že karty od ATi jsou dneska pro hráče dobrou volbou, ale nVidia rozhodně nezaostává, jak by se z některých příspěvků mohlo zdát.

@TOBiAS02: Dobrý den,ještě mi unikla reakce na záruku. Ta je na většinu GTX 480 tři roky a to přímo zde u prodejce, takže nějaké dvouleté garance evropské unie jsou zde zbytečné.František Novák - redakce CZC

@TOBiAS02: Pokud se zeptáte progamera, jenž se v kartách vyzná, myslím, že vám rozdíl mezi Cross/SLI a jednočipovou kartou vysvětlí celkem hravě. 2 karty/2 chipy nikdy nebudou úplně synchronizované, mají tendenci "závodit". Proto bylo (mimochodem i v mnoha testech, stačí chvíli googlit) mnohokrát dokázáno, že na progaming je prostě mnohem lepší karta jednočipová. Proto také NVidia své již poněkud zoufalostí podepřené PR postavila na onom "nejrychlejší jednočipové řešení pochází od zelených".

@DW: podstatný je ale fakt, že v celém článku i diskusi i vůbec zaměřením grafiky se jedná o grafiku herní.. a v herním výkonu je i při vlemi nefunkčních ovladačích HD5970 rychlejší.. většinou se ale povede do pár dní ovladače vyladit alespoň na 60% škálování a to myslím hraje proti nVidii..a t % rozdílu mezi HD5870 a GTX480 nemyslím, že hrajou roli i v profi branži.. 3fps navíc žádnýho grafika nezachrání.. ani hráče..

@TOBiAS02: udajne bylo vyrobeno zatim jen kolem 10 000 funkcnich kusu grafickych jader pro GTX4xx

@Danzel_cz: pro GTX4xx mozna, celkove bude ale ten pocet gpu GF100/Fermi vetsi, aktualne 2 nejvykonnejsi SC Nebulae pouziva krom Xeonu i 4640 kusu Tesel C2050 http://www.top500.org/system/10484 (a budou jiste dalsi SC spolehajici i na nove Tesly ktere asi chce nVidia s PNY a HP pokryvat prednostne) a objednavky na tyto tesly u OEM vyrobcu jsou tedy dost cekaci, my cekame na ctverici techto karet jako nahradu za C1060 ktera mame ted, a drive nez zacatkem srpna asi nebudou, poradnik je proste dlouhej, coz je dost prekvapive s tim jaky je rekneme nezajem o GTX4xx, nove Tesly oproti predchozi generaci prinasi vykon 4-6x vetsi a umoznuje i nektere dalsi funkce ktere byli na predchozi generaci temer nemozne, a otviraj se tak temto kartam dvere i tam, kde doted dominovalo jen CPU :)myslim ze nVidia si tedy nema moc naco stezovat a prodava Fermi vpodstate tam kam smeruje i svim nazvem Fermi a za mnohem vetsi sumy nez jake by ji prinesl herni trh, tam se podle me mnohem vice prodejne uplatni GF104 ktera snad vykonove nahradi karty s G200b, a GF104 tak spadne do te nejvice mainstreamove kategorie 100-250$ za VGA, tam ma jakasi "herni" Fermi sanci

@Shap: Tentokrát se Shapem souhlasím, myslim že Fermi se díky cudě a snad phys-x (tam kde nejsou peníze na Havok) uplatní spíše ve vývojářském/grafickém segmentu, kde provozní podmínky zase nehrají takovou roli. Uživatelům, kteří nechtějí investovat do vodního chlazení, bych fermi skutečně nedoporučil, jedině že by si chtěli domů pořídit nový radiátor a nevadilo jim, že jej v nadcházejících měsících mohou vypnout pouze deinstalováním ze skříně.

@DW: vzduchove chlazeni se da resit i pomoci Thermalright Spitfire, ale je potreba pocitat s 2tisici za chladic + par stovkama za 120/140mm ventilator a zaroven pocitat s tim aby se ten chladic vesel do PC, znamej s tim jiz GTX480 chladi a dolu sli jak teploty, tak samozdrejme hluk a mirne i spotreba

@Shap: a nebo ty 2 tisíce přihodím na v 99% pípadů o mnoho výkonnější HD5970..nebo ušetřím několik tisíc a koupím je o málo pomalejší HD5870 s Vaporem..

@TOBiAS02: ne kazdej chce dualni kartu z problemu ktere z toho prameni, skoukni treba testy karet, ze u nekterych enginu ma dualni karta ci dualni zapojeni stale problemya druhym bodem je ze ne kazdy muze nebo chce mit Ati, a duvody muze mit jakekoliv, od pracovniho nasazeni az po osobni preference dane znackyzrovna v tomto pripade majitel Ati mit nemuze protoze PC ho zivi a s nastupem GPU RT rendereru ma jedinou moznost jak jich vyuzit, a tim je Cuda only hardware, a bohuzel pro pristi roky se v teto oblasti nic nezmeni

@Shap: Na Computexu byla představena GTX 480 s Vapor chladičem, snad dorazí co nejdříve a s ní i další nereferenční řešení.

@Anonymní uživatel: cenou a provozními vlastnostmi se s hD5970 srovná, ale dotáhne i výkonem? :P

@TOBiAS02: Výkon jako slovo nic neznamená, je potřeba doplnit na výkon v čem.
Ve hrách bude asi HD 5970 pořád výkonnější, ale v profi aplikacích využívajících CUDA je hrubý výkon k ničemu, když neexistuje snadný způsob jak ho využít.

@Anonymní uživatel: Stejně tak i výhoda PhysX u karet nVidia je výhoda, která ATI chybí. Nelze říct, že někdo PhysX nevyužije a podobné fanATIcké řeči, záleží na každém. Podle mě je to perfetní vlastnost, která hraní posouvá o úroveň výše. Kdo je zvědav o co bez PhysX přichází, na youtube je mnoho srovnávacích videí.

@jeronim77: ano, souhlasím, hrubým herním výkonem vede ale výpočetní výkon má Fermi, jakoto výpočetně zaměřený čip, vyšší.. i když jak kde.. hrubý výkon v Tflops má ATi stále vyšší, ale takový výkon už se nedá využít všeude a hlavně aplikace pro něj můsí být úplně přesně nalajnována a v tom má výodu nVidia..nepopírám výhody Cuda a PhysX možných výpočtů, ale Cuda ve hrách není a PhysX také skoro ne a sorry, ale když uvedu příklad na Batmanovi - lítající papíry byly už v GTA 3, superdynamickou páru taky nepotřebuješ protože jí během hraní stejně nepstřehneš a i létající kabát nepotřebuješ, protože on lítá dodnes ale ne tak uplně reálné, hadry se hýbou tak, jak byly nadefinovány.. výkonu to učetří strašně moc ale hern zážitek není o tolik horší, abych kvuli tomu musel mít nVidii.. ale já nehraji podobné hry.. až někdo udělá závodní simulátor založený na PhysX do té míry, že i pneumatiky budou ovlivněny minimálně 15ti faktory, pak si postavím herní počítačna nVidiích, protože současné "reálné" simulátory za nic nestojí.. jenže to je rozdíl stále proti střílečce - dokud nebude fyzika na více místech - třeba fyzikální anatomie postavy, možné pohyby a zranění a jejich dopad na chování postavy, reálné chování zbraní, atd.. třeba tříštění skla a dřeva - je sice fajn, že se střpy válí na zemi, ale dokud se nebudou štěpit aspoň trochu reálně, není to nic světaborného.. ono i ta fyzika PhysXu je stále dost umělá než aby za to stála.. a i chudák Havok je nevyvýjený a jeho fyzika podle toho vypadá..

@TOBiAS02: Uváděné výpočetní výkony jsou teoretické, u ATi ještě zdvojnásobené tím, že GPU umí v jednom taktu vektorové sčítání i násobení, což je zajímavé, ale jak píšeš vyžaduje to výpočty "šité na míru".
Právě CUDA umožňuje využívat výpočetní výkon GPU bez složitého programování na nejnižší úrovni.

@TOBiAS02: proc porad pises nesmysly? Cuda ve hrach je, kazda hra ktera pouziva GPU-PhysX pouziva take Cudav Batmanovi to nebyli jen papiry, ale i kuprikladu mlha a pary ktere dost pridavali na atmosfere ;) je dost rozdil kdyz je chodba prazdna a nedo kdyz je plna koure a dohlednost je tak mizivanejlepsi je jak vsude pises ze vlastne nehrajes, ale presne vis jak to tam vlastne v tech hrach je a ze je to zbytecne, pritom ve vetsine tech veci se mylis a evidentne onich nemas ani paru :)

@Shap: čas od času zi zahraju, ale ne přímo novinky, protože si nic nekupuju, spíš až když mi něco pučí kamarád tak to ozkouším.. o těch efektech z batmana jsem se zmínil o všech..o co ale jde.. ta pára co tam byla se dá vykouzlit uplně jednoduše i bez PhysX, ovšem nebdue reagovat na průchod hráčem, nebude tak dynamická.. stejně tak noviny si budou lítat automaticky a furt.. a plášť taky nebude tak dynamický.. ano, na první pohled, při prvním hraní, tyhle efekty strašně působí na mozek a člověk chvílema sleduje, jak se ta pára vllní a sleduje proudění vzduchu, ale po čase hraní už na to nějak nereaguje.. hrál jsem Batmana asi týden na kamarádově GTX260..btw ono je to teď stejně jedno, nvidia oficiálně řekla, pokud z toho nesešlo, že pracujena OpenCl verzi PhysX.. pak už budeme moci porovnávat jen, jak moc se v PhysX budou ATi propadat a věřím že nemálo.. ale bude fajn si takové efekty zprovoznit i na ATi..Cuda je programovací jazyk, správně? v tom bude nejspíš PhysX engin naprogramován.. možná mi tato skutečnost předtím nedošla..

@TOBiAS02: CUDA (Compute Unified Device Architecture) je rozhraní umožňující programovat GPU z C s přidanými knihovnami a vytvářet tak kód využívající možnosti paralelních výpočtů v GPU.
nVidia se od začátku snažila přesvědčit AMD, aby přijali CUDA za své, ale ti se nechtěli vázat na konkurenční technologii. Místo toho se poměrně málo úspěšně pokušeli jít vlastní cestou.
Dneska je největším konkurentem OpenCL zaštiťované Khronos Group (sdružení firem, přičemž jak nVidia, tak AMD patří mezi hlavní členy).
Ať už vývoj půjde jakýmkoliv směrem, dá se čekat, že po SW stránce se bude nVidia snažit být vepředu, nic jiného jim totiž ani nezbývá, pokud chtějí v konkurenci obstát.

@Anonymní uživatel: ono to možná nepřijali proto, že AMD/ATi chce podporoat zejména otevřené standardy, což Cuda není, i když asi by byla efektivnější než OCL..aspoň co se říká, tak ATi dělá do SW teď až nějak moc, přičemž je to zejména HW firma, zatímco nVidia už dlouhá léta hlavně tahne svuj SW, který svými kartami desfacto doplňuje...kdyby ATi Cudu přijala, byla by za to kritizovaná, navíc Cuda také nemusí přímo být v souladu s architekturou čipů ATi, které s něčím takovým nepočítají.. ATi jen potřebuje namíru psané aplikace (nVidia si je pro sebe píše, ATi jen trochu), aby se její potenciál projevil.. samozřejmě jak kde - ne všuce může být silná architektura nVidia, ne všude ATi.. zatím se zdá, že ve hrách je architektura ATi efektivnější.. to může být zmetkovostí čipu, nevhodností arhitektury,.. nejspíš architekturou, protože zatímco ve hrách se výkon moc nezměnil (2x na GT200b), ve výpočetním segmentu vzrostl mezi stejnými jádry na osminásobek a to ještě Fermi není ve své plné specifikaci..

@Anonymní uživatel: Nvidia nikdy opakuji nikdy CUDU ani PhysX AMD nenabidli. Nechapu proc tyhle bludy neustale nekdo opakuje.

@stratos.: uplne ze stejneho duvodu z jakeho siris bludy ty :) proste protoze otom tenkrat v roce 2008 psalo nekolik webmagazinu zabivajicich se HW/SW a odkazovali se na svetove webyAMD pokud vim oficialne CUDA odmitlo ve svem prohlaseni s tim ze chce podporovat jen otevrene standardy, a to jestli predtim byla ci nebila nabidka ze strany nVidie, nebo jestli to byla jen reakce na nejake dotazy ohledne CUDA na Radeonech od tretich osob dnes jiz zrejme nezjistime

@Shap: hlavne ze ty tu neustale omilas sve polopravdy ktere ti uz mnoho lidi vyvratilo a ne uz nereagujes vid? :)

@stratos.: ? covece stale tu spis vidam vyvraceni vtich postu od vicero uzivatelu, kde ze to nereaguju? hod odkaz abych tedy zareagoval :) to vis ja nemam cas celej den projizdet databazi diskuzi na CZC, a tak pokud jsem nekde nereagoval, je to spise diky zapomeni a do dane diskuze jsem od posledniho meho postu jiz zrejme vubec nenahledl

@stratos.: a doporucuju ti muj predchozi post precist jeste jednou, zrejme si ho nepochopil a uplne zbytecne pak reagujes urazlive, polopravdy, pravdy, nebo lzi tu mame vspodstate vsichni, protoze nasim hlavnim zdrojem informaci je internet ktery je tech pravd, polopravd a lzi plnej a bohuzel casto nema nikdo z nas sanci urcit, jestli je to prave pravda, polopravda nebo lez ;)

@Shap: ono co jsem ten render viděl, tak zatím není moc o co stát.. co se profi renderu týče, tak či tak bude zase trvat hodiny, i když jistě, proti procesoru to bude zanedbatelná doba.. co se ale RT renderu týče, pro cpu existuje třeba HyperShot, který se s cuda rt může měřit do doby, než budeš závodit o profi final render..souhlasím, že Cuda je tahounem nVidia grafik, jenže ve směru profi segmentu, v herním segmentu je ti Cuda uplně kničemu! a my se bavíme o GTX480 jako herní grafice, její výpočetní schopnosti nepočítám, bylo mi jasné, že proti předchozí Tesle to bude rapidní skok..

@TOBiAS02: coze? zrejme absolutne nevis jak se veci momentalne maji ze? Grafika me zivi a Arion Render jiz pouzivam prez 2 mesice, pro vizualizace zcela idealni nastroj co zkrati oproti CPU dobu renderu treba i 30x, opravdu zanedbatelna doba rozdil treba 1 den a 1 hodina :))))nejdriv si zjisti jak natom RT-GPU opravdu jsou :)Arion Render http://www.randomcontrol.com/arion , dalsi GPU-RT jsou kuprikladu Octane Render (pouzito na previz filmu Avatar) http://www.refractivesoftware.com/ nVidia natom spolupracovala a ladilo se natom pro pozdejsi ucely jejich RT enginu pouzite treba v Design Garage, Mental Ray 3.8 ma jiz tez integrovanou CUDA http://www.mentalimages.com/index.php , a nove pribude i VrayRT http://www.spot3d.com/vray/images/stuff/rt_gpu/co se herniho segmentu tyce, tak as tak pravdu take nemas, hra Just Cause pouziva CUDA a vlastne vsechny implementace GPU-PhysX do her jsou resene prave prez CUDA, tedy CUDA pouzivaji vsechny hry s GPU-PhysX

@Shap: viděl jsem jednu demonstraci RT renderu na Fermi přímo od nVidie a moc mě to nepřesvědčilo o kvalitě renderu.. ale proti tomu že je gpu render mnohem rychlejší nic nenamítám!PhysX ani Cuda jsem do hloubky nikdy moc nezkoumal ve hrách, obecně jsem poslední dobou hry vůbec neřešil.. je mi jedno jestli PhysX je vlastně jen nástroj naprogramovaný v Cuda, ale podstatný je fakt, že tituly s PhysX nejsou o nic lepší, zajímavější a prodávanější, než povedené tituly bez PhysX.. navíc nechuť vývojářů prostě PhysX nepoužívat vývoji tohoto fyzikálního enginu nikterak neprospívá.. kdyby to bylo ale tak geniální lákadlo to PhysX a Cuda, jak říkáš, proč ho ve hrách používají jen tam, kde si to nVidie udělala sama? proč ho nenasadí každý větší vývojář?

@TOBiAS02: nVidia má speciální tým odborníků, kteří pomáhají vývojářským týmům s optimalizací výkonu ve hrách a to je to, co ATi chybí. Experti od nVidie pomáhají nejen s PhysX, ale s grafickým výkonem obecně, takže z toho v důsledku těží i majitelé karet od ATi.
nVidia to dělat musí, protože je na prodeji svých GPU a využívání pokročilých technoologií kriticky závislá. ATi tím, že je součástí AMD má větší jistotu a nic je k těmto poměrně nákladným aktivitám nenutí.

@TOBiAS02: trosku divne?, dal jsem ti odkazy na nekolik RT-GPU rendereru a jsou tam jak galerie, tak videa, a ty tu porad pises ze te to nepresvedcilo o kvalite?, koukal jsi vuvec na ty odkazy? kvalitou je natom GPU-RT uplne stejne jako CPU-RT ;)a o CUDA ci PhysX podle toho co pises asi take vubec nic nevis, proc otom pises ty nesmysly kdyz otom zjevne nic nevis a jen zrejme prebyras informace z internetu a zjevne z mist kde otom take mnoho nevedi?

Nenašli jste, co hledáte?

Nečekaně velký výprodej Uklízíme sklady