EVGA GeForce GTX 980 Ti ACX 2.0+, 6GB GDDR5_779007432
EVGA GeForce GTX 980 Ti ACX 2.0+, 6GB GDDR5
Produkt není určen k prodeji.

Všechny komentáře k produktu:EVGA GeForce GTX 980 Ti ACX 2.0+, 6GB GDDR5

@leory: :) on to myslel ironicky :)

@leory: R9 FURY bych vzal jenom ASUS STRIX v edici az zlevni na 14-15tis (slevy by mely do par tydnu dorazit)
- jde odemknout (velka sance) na R9 FURY X
- tiche STRIX chlazeni
- vlastni PCB + soucastky ala ASUS (opravdu brutalni kvalita)ale jenom kdyz zlevni.. za soucasnou cenu je to koupe nic moc...

@stratos.: A ušmiknutý duální bios :))

Master GEEK

@stratos.: Hele tady jsi sliboval pár dní nebo týdnů.. Jak si to má zdravý člověk vysvětlit? Tak ještě půlroček?
http://www.czc.cz/asus-strix-r9fury-dc3-4g-gaming-4gb/175158/produkt/44riqvjkpmi0g8gutk0tb06904/diskuse?category=9ht0msjf58gnva96n24a7t1057

@GreenT: Sliboval i 100 herních titulů pro AMD Mantle. Jak to všichni vývojáři podepsali a začali podporovat :))

Master GEEK

@IvanPrinc: A pak ti napíše, že vlastně Mantle je DX12... Koukáš na to jako vydra, jelikož nejsi úplný magor...
A my víme, že Mantle se podstoupilo Vulkanu.. :))
Ale ono se prý dle VVK Mantle dohodlo s MS a předalo jim to... :D
Je to Rebel !!!!

@GreenT: Vulkan je s největší pravděpodobností pro NVidii páč šéf Khronosu je i šéfem mobilní NVidie, Microsoftu je úplně buřt které firmě patří technologie.Takže MS to bude hrát na obě strany a Vulkan bude pro NV.EDIT: AMD je na MS závislá, ale naopak to neplatí vůbec.

Master GEEK

@šmíd19: Hele já po dlouhé době vlastním AMD kartu a velká výhoda v podobě Mantle je odhozena a podstoupena šéfovi Nvidia..
Má u mě mít ještě ta firma jméno?Jinak z těch her co sliboval Stratos a zakomponování Mantle do engines mi aktuálně vydaná pecka přišla jen tato:
Plants vs Zombies 2... Tvle tu hru zvládá i mobilní telefon a tam jsem teprve po jeho tisícech spamů měl pocítit tu výhodu.. :DBravo AMD, Bravo Mantle.. Mohli jsme porážet Nvidii a porážíme sami sebe.. :(

@GreenT: Taková důvěra v AMD produkt a dostal ho do ruk Huang.:D

Master GEEK

@IvanPrinc: Teď se naštval a jede multiny.. Asi to odhalení jeho zaměstnavatele ho rozhodilo... :D

Ověřený GEEK - level 3

@kxyht: W.T.F.Z.O.M.G.!!!To je cele doufam jen tezky sarkasmus a vtip od vas :o

@Khalai: Dílem ano, dílem ne.AS, sběrnice a budoucnost je jasná parafráze na VVK, který ovšem u karty za 20k tohle prostě nezmíní (ať už to pravda je či nikoliv), u jiných karet, řekněme mainstream a nižší/střední hi-end s tím ale opruzuje donekonečna a spamuje zde se železnou pravidelností.Co je myšleno seriózně, je, že alternativou ke GTX980Ti je právě Fury X, ať chceme nebo ne, je to prostě tak.
Obě dvě jsou momentálně nejvyšší hi-end u obou "výrobců".Výběr konkrétní značky a karty je pochopitelně na kupujícím.

Ověřený GEEK - level 3

@kxyht: Tak to já ani nikdy nerozporoval, že Fury X je konkurencí pro 980Ti, to je prostě fakt, jak říkáte.Na Fury X mi nejvíc vadí "nesmyslná" politika AMD - tedy zákaz nereferečního návrhu PCB společně s cenou, která nijak nekonkuruje vyšším (a tím pádem i lépe chlazeným a lépe navrženým) edicím 980Ti. Za 20K si prostě koupím raději MSI Gaming nebo Gigabyte G1/Xtreme edice 980Ti...

@Khalai: To s tím zákazem nereference u této karty je opravdu špatné rozhodnutí ruku v ruce s cenou, s tím nezbývá než souhlasit, pak není totiž moc na výběr, všechny jsou v podstatě jedna jako druhá akorát s jiným logem.
Záleží na tom, jak se ta karta chová v reálu, možná je to v pohodě, možná ne.

Master GEEK

@kxyht: A přesně proto je VVK dost divný.. Jednou vadí jindy ne.. Jednou dává AS výhodu jindy ne..
Je to zmatený kluk.. :))

@GreenT: Věčně si protiřečící a velice zaujatý chlapec už neví co by dál... a už ho nikde nechtějí

Master GEEK

@šmíd19: Tak hlavně je smutné, že ve svém věku by si mohl vytvořit systém lží, který se vzájemně nevyvrací.. Věk na to má.. Dělá ve velké firmě zvané - myslíte že už víme - co kdyby to byla tato :)) - "Wheelabrator Group"
Spamuje tam celý den, tak asi nemá co dělat.. Ještě bude chvíli pokoušet a může se na něco těšit.. :))

Master GEEK

Reakce na smazaný příspěvek: Sám jsem mu ve slabé chvilce smír nabídl.. A ani nezareagoval.. Prostě hrdý Stach a půjde ke dnu jako ostatní demagogové..

Master GEEK

Reakce na smazaný příspěvek: On měl hlavně zvážit příměří.. "War never changed"

@leory: Kdyby čirou náhodou přišlo ještě něco k tématu, tak vřelé díky.
Zatím děkuji stratosovi.

@leory: Není zač.
Měj se.kdyby si mel nakej dotaz, muzes klidne na muj skype: Jan.Belka2
rád ti poradím..

@leory: Karta na default v BF4 ce ticha a teplota 75 stupnu ( vetraky cca 1500 - 1700 rpm tzn asi kolem 45-50% ). Pri tomto defaultnim nastaveni je vesmes co jsem koukal vsude teplota podobna kolem tech 75 v zatezi a frekvence se drzi stabilne +/- 15 na 1200Mhz na jadre. K tomu servis ala DELL. Co chtit vic ?ps: vetraky pri 60% tzn cca 2000rpm tak jsou teploty 70 stupnu v zatezi a hluk je porad minimalni. Kartu doporucuji, je to absolutni luxus a k tomu vyborna cena a servis.

Ashes of the Singularity pod DirectX 12

Jelikož je na Steamu sleva 25% a hru jsem jako fanoušek RTS plánoval koupit, tak jsem toho využil. Jistí uživatelé mi to nedělali jednoduché, protože terč propagandy většinou podporovat nechci.Pročetl jsem si pár Steam recenzí a prý je hra velice dobře optimalizovaná i na fázi BETA. Borci s konfigurací GTX 960 / GTX 970 a Core i5 si na výkon ani omylem nestěžují. Dohledat něco ze strany AMD je těžké a je asi jasné, proč.Za sebe mohu říct, že po spuštění je hra perfektně hratelná na High presetu, ale dál už to jde docela do kopru např. při použití Temporal AA, což je neskutečný žrout. Dopad na celkovou grafiku hry není nijak zvlášť velký. Pro příklad High preset pod DirectX 12 je schopný dodat v průměru 87 FPS a nejvyšší grafické nastavení bez MSAA a s Temporal AA na Ultra sotva 40 FPS. To je - řekl bych - dost výrazný rozdíl. Nehledě na to, že na High presetu hra nejde pod 70 FPS, ale na tom nejvyšším nastavení bez MSAA jdou FPS i k 22, což je nehratelný. A to už máme násobek tří ve výkonu. To vše kvůli vyhlazování? Jsem zvědav, kdo by to upřednostnil :)Co se týče plynulosti pod Directx 12 a 11, tak mohu prohlásit, že se hra pod DirectX 12 jeví daleko plynuleji, i když tomu obrazové snímky nenapovídají. Něco jako adaptivní synchronizace nových monitorů, ale ne tak výrazná. Na High preset pod DirectX 11 mi hra na konci testu spadne bez vyflusnutí výsledků, což nechápu, ale pod vlastním téměř nejvyšším nastavení byl rozdíl mezi DirectX 12 a 11 ve výsledku nulový. Rozdíl byl pouze 15% ve prospěch DirectX 12 v těch nejnáročnějších pasážích testu, kde pod DirectX 11 očividně nestíhal procesor. Na celkový výsledek to ale nemělo vliv, protože těchto pasáží je v benchmarku očividně minimum a benchmark má jako celek 3 minuty. Rozdíly v minimálních FPS jsou ale markantní, čehož by si měl všimnou každý i bez ukazatele FPS. Minimální FPS benchmark bohužel nezaznamenává a žádné OSD mi pod DirectX 12 nefunguje.High preset pod DirectX 12:
http://postimg.org/image/sgc2eay55/Extreme preset pod DirectX 12:
https://www.youtube.com/watch?v=dpSN0wUWft0
http://postimg.org/image/4i5zs07aj/
- Tímto samozřejmě narážím na test, kterým zde dva oDDborníci vyvolali flame http://www.computerbase.de/2016-02/directx-12-benchmarks-ashes-of-the-singularity-beta/ . Jelikož mi vyšel o více jak 20% jiný výsledek, napovídá mi to jen jednu věc, a to tu, že je nemožný, aby mou grafiku brzdil procesor, pokud je schopná dodat o tolik procent vyšší výkon. Samozřejmě na úplně jiných frekvencích. Pokud tedy DirectX 12 na Nvidii nefunguje, jak je možný, že to v takových extrémních případech můj procesor zvládá a v těch nejhorších případech mu DirectX 12 o 15% pomůže? Na to budou znát odpověď zřejmě jen nejmenovaní oDDborníci na pokročilé API a instrukce procesoru.No jdu si místo testu zahrát, abych věděl, jestli jsem nevyhodil litr oknem za marnou hru. Steam recenze ale hovoří v opačném tónu, tak jsem zvědav :)

@IvanPrinc: Jen počkej hvězdná pěchota ti to vysvětlí.

@holcat: Spíš jsem si potvrdil to, co jsem si myslel celou dobu. A to je brzda v podobě procesoru pod DirectX 11 na nejmenovaných kartách. To další už existuje jen kvůli tomu, aby takové hry byly na nejmenovaných kartách hratelné. AMD tak pomocí této featury nemá zataženou ruční brzdu v podobě procesoru a dost možná se částečně odemyká potenciál parametrů, které AMD grafiky oproti Nvidii mají. Však R9 390 je téměř 2x silnější v parametrech jako GTX 970. Jak to ale jede na GTX 970 víme jen z pár testů a většina z nich měří remízu s R9 390 až na jedny soudruhy z Německa, které jsme si již představili výše uvedeným linkem.
Samozřejmě je to omezené na Windows 10 a nevíme, co AMD vymyslí u Vulkanu. A proč se tak extrémní nárůst výkonu při eliminaci limitu ze strany procesoru dle testu netýká R9 280X, by mě taky velice zajímalo. Že by se na starší GCN zcela vybodli? Tedy na karty jako R7 370, které tu Stratos cpe jako lepší DirectX 12 karty? Nebo je německý ten test kompletně celý nesmysl?Když nemám problém naměřit o 20% jiné výsledky než v jistém testu, asi nebude problém v tak extrémně náročné hře na procesor provozovat dědečka jako i7 4820K, který i za těchto podmínek očividně nebrzdí přetaktovanou GTX 980 Ti. K čemu tedy potřebuji ASteroidy, když mi jede grafika naplno? Jednoduše z ní bez dalšího OC víc nevymáčknu, protože nemá trn v patě. Výkon procesoru navíc nezískáš, když už tam z té největší části je i v DirectX 11. Že to možná ve výsledku pojede lépe na AMD díky ASYNC a zřejmě možnému využití plného potenciálu těch karet (to je stále jen spekulace), neznamená, že to automaticky bude nehratelné na Nvidii, což jsem si sám potvrdil. Na výsledné rozdíly v plné hře su fakt zvědavej, protože většina magazínů měří maximálně remízu.Též by mě zajímalo, kde je schované kurvítko, protože se mi moc nelíbí, jak to jede na kartách, které stojí polovinu co dnešní TOP High-end. Rozdíly mezi TOP kartou a vyšším mainstreamem nejsou nijak zvlášť velké, i když by měly být. Dle testu rozdíl mezi R9 390 a Fury X rovných 10 FPS je při nejmenším divná záležitost. Až to skoro vypadá, že TOP kartám i přes DirectX 12 a různé optimalizace procesor prostě nestíhá, ale to by zcela vylučovalo fakt, že s přetaktováním grafiky je celkový výkon ve hře úplně jinde. Pokud by to procesor nestíhal, bylo by přetaktování grafiky k ničemu jako při renderu stínů ve Fallout 4. Celkově moc nechápu, jak tato hra funguje, ale High-end karty prostě nepodávají oproti těm slabším takový výkon, jaký by měly. Nebo soudruzi z Německa naměřili u R9 390 naprosté nesmysly, což je podle mě ten hlavní problém :) Asi překlik z Extreme presetu na High. Odpovídalo by to i tomu, co naměřily jiné magazíny. Samozřejmě v každém testu vychází High-end karta jako docela pomalá, ale R9 390 nikomu a nikde nevyskočila jako v tomto případě. Ani pro AMD by tak směšný rozdíl mezi kartou za desítku a kartou za dvacku nevypadal dobře. A kupce těch dražších by to už vůbec nepotěšilo. Proč bych taky vyhodil 20 litrů za kartu, když to na kartě za půlku jede "jen" o 24% hůře?No uvidíme až ta hra vyjde a bude ji vlastnit víc lidí. Takhle můžu jen říct, že mi to jede nad očekávání dobře a pomyslný výkon navíc u AMD je prokazatelně díky eliminaci limitace procesorem, která jak jsem si změřil, u konkurence není ani zdaleka tak výrazná co se DirectX 11 týče. A tím i odpadá nutnost vlastnit Windows 10.

@IvanPrinc: No, dal jsem si to na frajera bez tutorialu a ještě na AI obtížnost uprostřed :D Jde to v pohodě pochopit jen přes tooltip k budovám i jednotkám. Akorát jsem oproti AI selhal na macro level :DNa první pokus to není zlý. Myslím si, že se hrou se skamarádí fakt kdokoliv. I člověk, který není zvyklí na nějaký standard RTS.Co se týče optimalizace, tak na Extreme preset naprosto v pohodě. Jediné, co tento preset nemá naplno, jsou shadery terénu, které si na High místo Medium sežerou docela dost výkonu. +- 52 vs 64 FPS v benchmarku. Tam už jde grafika fakt do kolen.
Ve hře nepozoruji micro-stuttering a hra je velice responzivní, což je pro RTS základ :) Myslím si, že to zatím vypadá jako velice nadějný nástupce Supreme Commander.

@IvanPrinc: Ať žije Shadowplay, protože je to jediné OSD, které mi funguje pod DirectX 12 :)Zde jsem natočil celý test na Extreme preset pod DirectX 12 včetně MSI Afterburner statistik v okně:
https://www.youtube.com/watch?v=dpSN0wUWft0

@IvanPrinc: Škoda, že jen FHD. :D

@jack2310: :(

@IvanPrinc: Zdravím, a jak je to tedy s těmi slavnými asynchroními shadery :-) Jedná se v případě této hry (asi zatím jediné?) o nějaký typ "nastavení", které lze vypnout, nebo jde o fičuru implementovanou přímo v jádru enginu? A pokud je na nich založen engine, tak jak se to s nvidií projevuje, když je dle mnohých hardwareově nepodporuje? A lze vůbec pozorovat díky využití AS nějaké grafické zlepšení? Nejsem odborník, takže mi to stačí laicky řečeno :-) Díky.

@petrsmid: Nevím, jestli je to implementovaný přímo v DirectX 12 nebo jen v herním enginu, ale každopádně to funguje samo od sebe, pokud je kompatibilní hardware. Není to žádné kurvítko či funkce k zapnutí nebo vypnutí.Pro Nvidii je to v současném stavu hry i tak k ničemu, protože primární problém v přetíženém procesoru neexistuje. Procesor je i na takto výkonné grafice využíván perfektně i pod DirectX 11, kde dochází jen k několika brzdám ve výkonu. Tohle DirectX 12 v mém případě opravuje a minimální FPS jsou lepší. Celá scéna benchmarku je pak mnohem plynulejší. Pro lidi s velice dobrým hardware DirectX 12 zřejmě nic extra nepřinese, protože her, které až nechutným způsobem využívají procesor, je hrstka.Asynchronní shadery samy o sobě podle mě fungují jako náhrada za to, že AMD prostě neumí udělat DirectX 11 ovladač, který by nějakým způsobem skamarádil procesor a AMD grafiku či využil potenciál všech jejich nadupaných parametrů a výpočetního výkonu. Nvidia má toto vyřešené už dva roky od doby co prohlásili, že nepotřebují Mantle k tomu, aby nakrmili svoje grafiky. Výkon AMD karet pod DirectX 11 je prostě strašnej a právě toto řeší shadery, a proto je tam tak obrovský nárůst výkonu. Někteří lidé na fórech, kteří se tímto odborně zabývají, tvrdí, že asynchronní shadery jako takové na Nvidia hardware fungují, ale při jiném kódování. Borec měl o tom topic na Reddit, ale hledat se mi to nechce. I tak pokud je primární funkce této featury odbourat brzdu v procesoru, tak to Nvidia v této hře nepotřebuje a nemá jak dohledat další výkon navíc, protože procesor už prostě lépe nepojede a limitem je grafická karta, kterou bych musel dále taktovat, abych měl vyšší výkon. Ale většinu z toho jsem tu už napsal výše :) Pokud asynchronní shadery využijí AMD hardware naplno a odstraní problém s CPU overhead, vytěží z toho velice pravděpodobně i výkon navíc oproti Nvidii v této hře, ale to si počkáme až bude hra ve finální fázi a bude ji vlastnit dalších několik tisíc lidí. Prozatím jsem na Steamu nenašel jediného člověka, který by si stěžoval na optimalizaci hry vzhledem k tomu, jaký vlastní hardware :)Jak už jsem řek, není to kurvítko a na Nvidia hardware to nemá vůbec žádný vliv a hra jede perfektně. Já taky nejsem softwarový inženýr či papírový odborník na takové věci, takže můžu pouze popsat to, co sám vidím na svém hardware.

@petrsmid: Jinak to o těch ovladačích pro DirectX 11 si můžete poslechnout i zde. Je to půl roku staré a ještě z Alpha verze hry, která vypadá příšerně :) Alespoň nejsem jediný, kdo má stejnou teorii. A takhle se změnila oprava chyb jisté firmy pod DirectX 11 v propagandu výkonu a lepší podpory celé DirectX 12 API :) Mystifikace na druhou. https://youtu.be/OuUcIfcMDtc?t=1m59s

@IvanPrinc: Bohužel jistým vymatlancům to můžeš tlouct do palice horem dolem, stejně si budou mlít svou pravdu. Ostatním, co se podívají na testy nezaujatým pohledem, je jasné, že AMD má v AoS DX11 tak brutální vysoký CPU overhead, že jediná možnost zahrát si naplno je DX12 a tedy i nutnost W10.Bavím se tím, jak jistá individua kritizují kupující nVidie, že jsou to ovce, které se nechali oblbnout marketingem, přitom skočí jako slepice po flusu na první pokus konkurence za hodně dlouhou dobou o trochu agresivnější marketing (respektive vůbec o nějaký marketing) a hned tu hlásají 30% nárůsty pod DX12 díky AS, šířce sběrnice, velikosti paměti a bůhví čemu.
Pro stratose: chápu, že si ještě neprovedl svoje testy za rozbřesku, ale mohl by ses alespoň jednou překonat a vyjádřit se místo ubohých mínusek :D

@svab: Ale jak vidíš, tak tento marketing funguje a ovce se toho chytily. Pak matou i ty, kteří už v tom bordelu nevědí, čemu mají věřit viz. ten dotaz výše. Tak snad si pán udělá názor sám :)Docela mi to připomíná vymývání mozků.

@IvanPrinc: Dostal se mi na monitor velice chytrý článek o asynchronních výpočtech:
http://ext3h.makegames.de/DX12_Compute.htmlPokud to chcete ve zkratce, tak asynchronní výpočty umí AMD i Nvidia, ale obě architektury k nim přistupují naprosto odlišně a nejlepší možné využití potenciálu pro jednu stranu je zároveň to nejhorší možné pro stranu druhou. A samozřejmě i opačně. Na Nvidia architektuře do toho totiž zasahuje i CUDA.Samozřejmě existuje řešení, které funguje pro obě strany, ale to už si vývojář musí vybrat sám. Jelikož do této hry tečou peníze a marketing jisté firmy, tak se toho ideálního řešení zřejmě nedočkáme, pokud by Nvidia nezamávala kapitálem a nevyšachovala AMD jako u Tomb Raidera jen díky dominantní pozici na trhu a zájmům 80% vlastníků grafických karet.Nvidia se k tomu již vyjádřila, že postup asynchronních výpočtů je v té hře prostě nevyhovující a tento článek to pouze podtrhl. Jen jistý expert toto vyjádření prezentuje jako výmluvy či kalení vody a neustále tu něco plácá o lživé podpoře DirectX 12.A podobný článek tu byl už před měsíci, ale čistě teoretický (akorát už nevím kde). Přitom jeho obsah tvrdil téměř to samé, takže se kluk nemýlil, i když psal, že klidně může.Tedy celá rudá propaganda na internetu je založená pouze na tom, že je ve hře použit kód, který je potenciálně nejlepší pro AMD a tím i jasně nejhorší pro Nvidii. Proč není použít kód universální - když existuje - to se asi nedozvíme. Přece není možný, aby AMD hrálo špinavou hru, že jo? To dělá přece jen tým zelených."The situation is currently unsatisfying as Nvidias hardware requires a number of non-intuitive sanctions. In return, Nvidia is offering comparable capabilities on up to 5 years old hardware.""It is still possible to provide a common code path for both vendors. This works by pure DX12 means and should also scale well to future GPU generations."

Ověřený GEEK - level 3

@IvanPrinc: No jo no, ale když jedno jisté individuum odmítá počkat na více her s implementací asynchronních výpočtů a všechny svoje předpovědi zakládá na jediné hře, která není ještě ani dokončená, tak je to těžké...Nechtěl bych vidět tu "shitstorm" co by se strhla od rudochů, kdyby si studio dovolilo dělat kód optimalizovaný výhradně pro nVidia karty. To by bylo keců o podvodech, uplácení, nečisté hře aj.

@Khalai: On tam i píše, že flexibilita a jednoduchost kódu u AMD karet je taky vykoupena celým designem architektury a celkovou spotřebou karty, která je díky tomu vyšší. Samozřejmě to pak vývojáři dává jednodušší nástroj ke kódování a rychlejší vývoj. U Nvidie je to složitější, protože je architektura namířená úplně jinak a vývojář se s tím musí prostě poprat, pokud toho chce využít. Ale taky je tam napsáno, že když se to udělá správně, tak tyto výpočty fungují i na 5 let starém hardware od Nvidie.Až tu bude FinFET, možná to Nvidia vyřeší jinak a díky menšímu procesu nebude spotřeba karty jejich hlavní cíl. Ale řešit to lze i teď, jen se musí chtít.Ono taky záleží, jestli se s tím Stardock chce vůbec obtěžovat, když na té hře stojí marketing AMD. Možná až nějakej měsíc po vydání hry, kdy už nebude marketingu třeba.Každopádně dokud mi ta hra pojede dobře, tak mě to ani moc nezajímá. Jen mám plný zuby té propagandy jistých vypatlanců.

@Khalai: Ale oni už prý optimalizovali kód, aby hra lépe šlapala na kartách Nvidia viz.:
http://www.svethardware.cz/recenze-directx-12-multi-engine-asynchronni-shadery-v-praxi/41419-11
Sice to nepřineslo nějaký velký nárůst výkonu, ale snaha byla.

@blaschman: No a taky na té verzi nemělo AMD z ničeho nic 30% odskoky. To až teď v nové Betě.Já nejsu programátor a co Nvidia povídá Stardocku taky netuším. A jestli to pak vypadá podle těch požadavků taky nevím.To už si kluci musí pořešit mezi sebou.Já teď zkoušel benchmark v té nové verzi a celkový výkon mi klesl ze 74 FPS na 61. A to jsem si kromě sněhu a pár efektů ničeho novýho nevšiml.

@IvanPrinc: Rád bych to otestoval na své Fury X, aby jsme pak mohli porovnat, jak je to ve skutečnosti, ale zatím se mi za to ty peníze dát nechce. Chci si koupit nového Tomb Raidera. Kdyby se třeba dal stáhnout třeba jenom ten benchmark, tak by to bylo super.

@blaschman: Benchmark Stardock nenabízí.Jen nechápu, jaké proběhly změny, že mi šel celkový výkon najednou o 18% dolů. Pokud každý patch dopadne stejně, tak s takovou skončím na 30 FPS a budu rád :) Přitom procesor má ve výpisu vždy vyšší FPS, takže nedochází ani k žádné brzdě. Jen se zcela bezdůvodně zkryplil výkon.

@blaschman: Tohle byla taky komedie:
http://www.guru3d.com/articles_pages/ashes_of_singularity_directx_12_benchmark_ii_review,10.htmlV Guru3D naměřili, že na AMD kartách dochází ke stutteringu jako při zapnuté VSYNC a u Nvidie to nedělá. Jistej rudej web obvinil Guru3D ze lži, že prý to na AMD funguje normálně. Přitom samotné AMD potvrdilo, že je to chyba ovladače a napraví to s další verzí :DTakže asi tolik k šaškům jako Stratos, kterej se probudil a ohodnotil příspěvky :)

@IvanPrinc: Na ten článek odkazoval sám stratos., resp. na jeho českou podobu, pro který byl ten anglický text zdrojem. Taky jsem mu postoval pár závěrů ze samotného zdroje, bohužel se to nesetkalo s přílišným pochopením: http://www.czc.cz/gigabyte-gtx970-g1-gaming-graphics-card-4gb/160240/produkt/9tkcvr3hl6go795kh3esc3uoa3/diskusePodobný článek, který máš asi na mysli, byl od stejného týpka, který si říká ext3h, jenom to teď shrnul na té jedné stránce.

@stratovasa: "nvidia proste AS nepodporuje proto zde nema po jeho zapnuti zadny vykonostni narustm naopak klidne muze vykon o nejake to procento klesnout..":D :D :D :D :D :D :D :D :D Klasika no.Co na to napsat? Možná jen to, že Stratos je 100% pí**s, jak zaznělo ve Strážcích galaxie.

@stratovasa: Jinak ten článek od no-X je taky naprostá klasika.Celý článek plácá něco o procentech ze dvou testů. Na konec hodí tabulku, ke které nenapíše vůbec nic a jen odkáže na zdroj v angličtině, kde je celý pojem asynchronních výpočtů vysvětlen.:D Prostě tady ta česká komunita redaktorů je jedna velká podívaná. Obzvlášť, když jsou fanatici do jedné značky. Tomu se už může člověk jen smát, jak se weby v mateřském jazyce mění v kýbl hnoje plný polovičních informací.Docela by mě zajímalo, kdy ten pisálek přeloží článek z Videocardz, kde se probírá možné přeznačování AMD karet do další generace :)) Takový článek se mu ale nehodí na web.

@IvanPrinc: Co byste taky čekal od tupého překladatele no-X z TyDýtu?

@šmíd19: No představovat si nic nechci, protože bych si pozvracel klávesnici.Lidí, kteří ty jeho "články" čtou, je mi upřímně líto.

@IvanPrinc: http://videocardz.com/58308/amds-baffin-weston-and-banks-gpus-spotted-on-zauba
no jo, když ta tabulka nejde přeložit jak by se mu hodilo.

@IvanPrinc: Už jsem četl něco podobnýho dřív, ale nechtělo se mi to tadyhle v diskuzích Stratosovi vypisovat. Tudíž děkuji, že jste to již udělal Vy. ;-)

Nenašli jste, co hledáte?

kód: 172951
EVGA GeForce GTX 980 Ti ACX 2.0+, 6GB GDDR5_779007432
Produkt není určen k prodeji.
Extra výkonná herní grafická karta s čipem NVIDIA GeForce GTX 980 Ti, frekvence čipu 1000 MHz (Boost Clock 1076 MHz), 6GB GDDR5 paměti s frekvencí 7010MHz efektivně, 384bitové rozhraní, 2816 CUDA jader, podpora DirectX 12.1, OpenGL 4.5, NVIDIA SLI, 3D Vision, GPU Boost, DVI-I + 3x DisplayPort + HDMI, PCI-E 3.0 x16 rozhraní, výkonný systém chlazení ACX 2.0+.
Nakup a soutěž o hvězdné stavebnice LEGO® Nakup a soutěž o hvězdné stavebnice LEGO®