Seneste forumindlæg
Køb / Salg
 * Uofficiel Black/White liste V3
Login / opret bruger

Nyheder

Nvidia udtaler: AMD har snydt!

Skrevet af | 22-11-2010 19:04 | 4682 visninger | 55 kommentarer, hop til seneste

Når alt kommer til alt, så er et af de vigtigste spørgsmål ved køb af en ny computer, hvilket grafikkort man skal have. En af måderne at finde ud af hvilket kort der kommer til at fyre op for diverse spil, er at sammenligne benchmarktests på internettet, der viser Nvidias og AMDs topmodeller konkurrere mod hinanden, i kampen om ydelse. Nye opdagelser fra toppen af teknologiverdenen, her i blandt ComputerBase, PC Games Hardware og Tweak PC, viser dog at disse sammenligninger i værste fald er noget humbug!

Ifølge opdagelserne, som Nvidia efter offentliggørelsen kan bekræfte, så har AMD i deres default driver indstillinger nemlig prioriteret ydelse over billedkvalitet, hvilket gør at man ikke umiddelbart kan sammenligne Nvidias og AMDs grafikkort. De tyske sider ComputerBase og PC Games Hardware rapporterer begge at de har været nødsaget til at bruge "High Catalyst AI texture" filtreringen, frem for "Quality" (som er default) for at få en billed kvalitet der svare til den Nvidia har som standard. Denne forskel kan i værste fald betyde en ydelsesforbedring til AMD på hele 10%.

Dette mener Nvidia mildest talt er en fornærmelse, og henviser til en aftale som industrien vedtog efter Nvidias flop med at optimere deres GeFroce FX til 3DMark03. Denne beskriver kort sagt at enhver optimering der øger ydelsen, men ikke ændre på billedkvaliteten er en godkendt forbedring, mens en ydelsesforøgelse på grund af ringere billedkvalitet, betegnes som snyd.

Nvidia siger til sidst i deres nyhedsblog følgende om AMDs lille performance stunt:

"NVIDIA will not hide optimizations that trade off image quality to obtain faster frame rates. Similarly, with each new driver release, NVIDIA will not reduce the quality of default IQ [image quality, red.] settings, unlike what appears to be happening with our competitor, per the stories recently published."

 

Klik på dette link for at læse hele bloggen. Desuden har du på bloggens hjemmeside også mulighed for at klikke dig videre ind på Tweak PC, som har 6 videoer liggende, der tydeligt viser grafikforskellen for hhv. Nvidias standard indstillinger og AMDs standard indstillinger og det forventede resultat.

 

Note: Dette er ikke en undskyldning for yderliger krig mellem Nvidia og AMD brugere. Den diskussion må I tage et andet sted. Tak.

#1
xXfailzorXx
Monsterbruger
22-11-2010 19:12

Rapporter til Admin
Det er en ydelsesforværringdu mener, ikke? Der er jeg lidt glad for at have et nVidia kort - vil sgu helst have den forbedrede IQ end lidt flere FPS i de spil jeg spiller.
--
i5 760 @ 3.6 GHz - Kingston DDR3 1333 MHz - Antec Nine Hundred - Zotac GTX 460 1 GB - Chieftec 750W PSU - Asus P7P55D-E Pro
#2
Denuush
Juniorbruger
22-11-2010 19:28

Rapporter til Admin
Det er en enormt elendig markedsførings strategi af NVIDIA ved at komme med sådan en udtalelse.. Det vil jo klart påvirke nvidia's omdømme.. rart med nye artikler i ny og næ på hol.. Derudover syntes jeg godt at nvidia ku komme med nogen sammenligninger så man faktisk kunne se at det nvidia siger var sandt.. det er jo påstand mod påstand..
--
#3
xXfailzorXx
Monsterbruger
22-11-2010 19:45

Rapporter til Admin
#2 Hvis du læste det igennem er der jo faktisk nogle hardwaresider der har testet det?
--
i5 760 @ 3.6 GHz - Kingston DDR3 1333 MHz - Antec Nine Hundred - Zotac GTX 460 1 GB - Chieftec 750W PSU - Asus P7P55D-E Pro
#4
xXfailzorXx
Monsterbruger
22-11-2010 19:45

Rapporter til Admin
EDIT: ..jeg dummede mig.
--
i5 760 @ 3.6 GHz - Kingston DDR3 1333 MHz - Antec Nine Hundred - Zotac GTX 460 1 GB - Chieftec 750W PSU - Asus P7P55D-E Pro
#5
Sixt
Bruger
22-11-2010 20:05

Rapporter til Admin
Ej har de snydt ? det var da noget træls noget ... ...... ......
--
#6
DEVIL_DK
Guru
22-11-2010 20:09

Rapporter til Admin
så er det jo godt nvidia har ren mel i posen og adrig har snydt og selfølgelig aldrig kunne finde på det de er jo dybt troende ROFL PS: Lad ham der har ren mel i posen kaste den første sten.
--
*MSI 790FX-GD70*Phenom II X4 965*HIS 4890 1GB* *G.Skill DDR3 ECO 12800 4GB*Corsair 650 Watt*Hanns-G HG281D*
#7
bQnne
Maxi Nørd
22-11-2010 20:11

Rapporter til Admin
#6 Nu har AMD heller ikke fået lov til at forsvare sig i sagen, endnu. Der kommer nok en opdatering hvad det angår, snarrest. :)
--
Computer setups: Se profil. :) If life was a cake, how fast would you eat it?
#8
Tux
Nørd Aspirant
22-11-2010 20:16

Rapporter til Admin
#6 Læs hvad der står, der står også at nVidia heller ikke selv har været hel rene før i tiden. Betyder ikke at de ikke er det nu.
--
Core i7-920 D0 @ 2.66 GHz -|- Gigabyte GA-X58-UD4 -|- Kingston 6x2 DDR3 (1333 MHz) -|- GTX285 1GB DDR3 -|- Windows 7 Ultimate 64bit
#9
Cordion
Maxi Nørd
22-11-2010 20:19

Rapporter til Admin
nu mener jeg altså at brugeren selv kan væl at fart eller kvalitet. dvs at man kan faktiskt i nogle tilfælde forbedre kvalietet, hvor spillet har dårligt video settings implementation så kan ikke helt se hvad problemet er
--
ASUS P5KC; WD Caviar 500GB; ASUS HD4870; E8400@3393MHz; Corsair VX550W; 2*2Gb Crossair XMS2 PC6400 http://peecee.dk[...]
#10
DEVIL_DK
Guru
22-11-2010 20:30

Rapporter til Admin
#8 ta nu og slap af mand, jeg siger jo bare hvad jeg mener ikke noget at hidse sig op over :) og nvidia har snydt før i tiden det ved alle de har enda gjordt selv samme som de beskylder AMD for. men vi Kan vel alle blive enige om at det er super vi har dem begge ellers ville gfx priserne stige sindsygt og kvaliteten halte.
--
*MSI 790FX-GD70*Phenom II X4 965*HIS 4890 1GB* *G.Skill DDR3 ECO 12800 4GB*Corsair 650 Watt*Hanns-G HG281D*
#11
xXfailzorXx
Monsterbruger
22-11-2010 20:46

Rapporter til Admin
#10 Det sidste giver jeg dig helt ret i ;)
--
i5 760 @ 3.6 GHz - Kingston DDR3 1333 MHz - Antec Nine Hundred - Zotac GTX 460 1 GB - Chieftec 750W PSU - Asus P7P55D-E Pro
#12
enjoidk
Supporter
22-11-2010 21:26

Rapporter til Admin
sjovt nok kommer dette reklame stunt fra nvidia lige nu hvor de lige har lanceret gtx 580 og hvor mange forbrugere venter i spænding på amd's modsvar i form a 69xx serien! - mon de, nvidia har lagt op til et selvmål? Det kan tiden kun vise - dog kan jeg kun sige, som andre i denne tråd, vinderne er os :) om det kan betale sig at være fanboy, tror jeg næppe.
--
Mind over matter|If u dont mind it doesnt matter!
#13
gQrgh
Ultra Nørd
22-11-2010 21:43

Rapporter til Admin
Altså hvilke indstillinger et grafikkort kommer med kan man sgu ikke beskylde for snyd, man kan jo bare ændre det ? Hvad er problemet ? Syntes sgu ikke det er snyd, det er vel blot hvad AMD syntes at prioritere mest. Lad dem nu også lige kommer i gang inden at beskylde dem for alt det her, og lad os høre AMD's kommentar til sagen.
--
Mvh. gQrgh / Mads http://www.deaz.dk[...]
#14
xXfailzorXx
Monsterbruger
22-11-2010 21:49

Rapporter til Admin
#13 Ja, men i de tests hvor der ikke er taget højde for det har AMD jo en fordel, fordi mange kun kigger på FPS. Og så er der mange der ikke lige nødvendigvis ser ting som det her - Sikkert også en masse der ikke engang ved at de kan ændre på noget inde i driveren? Der er virkelig mange mennesker der ikke har den fjerneste idé om mere end at IE er en browser (altså om computere). Det er i hvert fald hvad jeg har oplevet. Ingen af mine venner ville se sådan en her nyhed f.eks. :) Det blev sgu rodet.
--
i5 760 @ 3.6 GHz - Kingston DDR3 1333 MHz - Antec Nine Hundred - Zotac GTX 460 1 GB - Chieftec 750W PSU - Asus P7P55D-E Pro
#15
Abel ort
Maxi Nørd
22-11-2010 21:49

Rapporter til Admin
Det er fandme fail fra nVidia at brokke sig på den måde. Der er jo ikke nogen der tvinger brugerne til at bruge fabriksindstillingen.
--
Phenom2 965 3.4 BE + Noctua NH-D14 / HyperX 1600Mhz 4GB / XFX 5850/ Intel X25-M 80GB/ Define R3/ GA-MA790FXT-UD5P Kone,G15,Philips24FullHD
#16
Fing
Elitebruger
22-11-2010 22:12

Rapporter til Admin
#15 Synes det er fail at optimere grafikkort til en benchmark i stedet for at optimere til det de er bergenet til, nemlig grafik. Det uanset hvilket firma det drejer sig om. Om det så passer 100% at de har "snydt" ved jeg ikke, men hvis de optimerer til test på bekostning af reel ydelse er det forbrugeren der taber.
--
#17
DEVIL_DK
Guru
22-11-2010 22:13

Rapporter til Admin
hvis det bare er et spørgsmål om hvordan indstillingerne står fra standard er det jo ikke snyd, men gør de som nvidia gjorde at når driveren kunne se et program som 3dmark sætter den autumatisk kvalliteten ned for at vise bedre fps er det snyd.
--
*MSI 790FX-GD70*Phenom II X4 965*HIS 4890 1GB* *G.Skill DDR3 ECO 12800 4GB*Corsair 650 Watt*Hanns-G HG281D*
#18
Disturbed-Freak
Semi Nørd
22-11-2010 22:14

Rapporter til Admin
#16 Det er en strategi. Hvis hvilken som helst gigant lavede alle deres beslutninger baseret på etik ville de aldrig være blevet så store. Hvad synes du så om Intel compileren og alt det virvar der har været omkring deres komplet fuck-over af AMD?
--
Of all the words of tongue and pen, the saddest are these; it might have been.
#19
ReneSDK
HOL Moderator
22-11-2010 22:14

Rapporter til Admin
Præcis samme diskussion dengang Nvidia lavede det samme med GeForce FX kortene og deres drivere, da de var for langsomme med de samme indstillinger som ATi's. Same shit all over again.
--
Athlon IIx3 425 @ 3,2GHz | AsRock K10N78FullHD | 4GB DDR2 RAM | 160GB Hitachi 7200rpm | GeForce 9800GT 1GB | 20" Samsung | Windows 7 Pro 64bit
#20
HenrikM
Maxi Nørd
22-11-2010 22:37

Rapporter til Admin
Nvidia hiver naturligvis alt muligt ind, og det er fyldt med halve sandheder. 58x0 har fået lidt lavere default IQ i 10.10, i forbindelse med de nye muligheder for at stille på Catalyst AI. Dvs default er blevet lidt ringere, mens den nye høje setting er lidt bedre end før. De mindre 5x00 medlemmer har hele tiden kørt med de lidt lavere indstillinger (dvs alle er ens nu), men kan nu også skrues op hvis man ønsker det. Så der er kommet flere muligheder og det er blevet mere gennemsigtigt. Der er i øvrigt tilsyneladende en fejl på evergreen der giver de der skarpe overgange i AF'en, den er rettet i 68x0, som derfor har bedre default IQ. Men Nvidia har som default lidt bedre AF kvalitet, om man så kan se det i ret meget andet end *meget* kunstige tests er anden sag. Men det er da godt at se at nvidia kalder detektering af test applikationer for snyd, så ved jeg hvad jeg skal kalde 580's strømforbrug i relation til furmark.
--
#21
HenrikM
Maxi Nørd
22-11-2010 22:40

Rapporter til Admin
(dobbeltpost!?)
--
#22
floff
Megabruger
22-11-2010 23:10

Rapporter til Admin
Hvorfor skal AMD have en chance for at forsvare sig? Hvis den aftale som de indgik for lang tilbage siger de ikke må trade billedkvalitet for ydelse på std instillingerne så er sagen jo lukket lige der!? Om det er bevidst eller en fejl er da ligemeget.
--
#23
CXooler
Ultra Supporter
22-11-2010 23:21

Rapporter til Admin
Alle knep gælder.. tests fokuserer jo på FPS, så hvorfor ikke optimere det? Forbrugeren kan jo godt lide at blive snydt (så længe de ikke ved det)
--
| ASUS P5N32-E | C2D Conroe E6600 | Corsair XMS2 4*1024MB | ASUS EN8800GTS-640MB | ~6TB HDD | Antec TruePower 650W EC | Antec Nine Hundred |
#24
ReneSDK
HOL Moderator
22-11-2010 23:31

Rapporter til Admin
#23 det hedder "kneb" :D det andet er noget man gør i sengen, og har såvidt jeg ved, ikke så meget med grafikkort som sådan at gøre :D
--
Athlon IIx3 425 @ 3,2GHz | AsRock K10N78FullHD | 4GB DDR2 RAM | 160GB Hitachi 7200rpm | GeForce 9800GT 1GB | 20" Samsung | Windows 7 Pro 64bit
#25
Fing
Elitebruger
22-11-2010 23:31

Rapporter til Admin
#23 Nu ved vi det, forbrugerne, så det er dermed lidt af et selvmål. Vi kan starte med at trække x-antal % af AMD's GFX score i fps-sammenligningerne når vi skal vælge GFX. Men det er måske kun et fåtal af forbrugerne der ved det, men sikkert også kun det samme fåtal der kigger på tests inden køb, så alt i alt skidt for AMD.
--
#26
Fing
Elitebruger
22-11-2010 23:32

Rapporter til Admin
#24 I knep og kærlighed gælder alle kneb?
--
#27
Kasperkk
Supporter Aspirant
22-11-2010 23:33

Rapporter til Admin
#24 hvis du kun "knep" i sengen bliver du da aldrig færdig? Du mangler jo slutningen ;-)
--
Phenom II 965 3,4@4,0 h70 haf922-Gigabyte GA-MA790XT-UD4P- OCZ AMD BE 2x2 GB DDR3 1600mhz-SAPPHIRE HD 5870(1GB)-750W PSU
#28
Skumleren^
Elitebruger
22-11-2010 23:48

Rapporter til Admin
#24 jeg har lyst til at tage mine kort med i seng og lave 2 nye kort, så kan jeg køre quad SLI :D
--
i7 980x, Asus P6T6 WS Revolution, Kingston 1600mHz DDR3 3x2GB, 2xGTX 580 SLI, Cougar 1000W, Intel X25M 80GB SSD, Antec P183, Acer GD245HQ 120Hz
#29
Azakiel
Super Nørd
22-11-2010 23:55

Rapporter til Admin
#28 gid det virkede sådan, for så havde jeg en hel familie af Radeon x1300..... og Geforce 7300... og Radeon HD4650... måske meget godt alligevel at det ikke virker egentlig :3
--
Phenom II X4 B50 @3.5ghz Triple Core Gigabyte GA-MA785GT-UD3H G.Skill 4gb DDR3 1333mhz CL9, Dual Kit (2x 2GB)ATI HD4650 XFX Thermaltake Soprano
#30
Cordion
Maxi Nørd
22-11-2010 23:57

Rapporter til Admin
tja... nu er testere ikke dumme forbrugere (håber jeg) så de burde vel kunne finde ud af at indstille catalyst rigtigt, og derved er der ikke noget snyd i testene...
--
ASUS P5KC; WD Caviar 500GB; ASUS HD4870; E8400@3393MHz; Corsair VX550W; 2*2Gb Crossair XMS2 PC6400 http://peecee.dk[...]
#31
HenrikM
Maxi Nørd
22-11-2010 23:59

Rapporter til Admin
#22: Der er naturligvis ikke noget officiel "aftale", ikke omkring spil i hvert fald. Futuremark forsøger at håndhæve at der ikke må være specifikke optimering til 3dmark, så den kan være en "generisk" 3d test. Til spil sker der specifikke optimeringer, men de vil naturligvis tilstræbe det samme resultat. I betragtning af hvor håbløst visse shadere er skrevet ville det også være tåbeligt ikke at fixe dem. Men det har heller ikke noget med det at gøre, både nvidia og amd har "altid" lavet "brillinear" filtering i forskellig udstrækning, og det er dårligt nok præcist defineret hvordan AF skal samples. Så det er altid en afvejning mellem ydelse og kvalitet, og hvor på den skala default indstillingerne skal stå. Det ville også være tåbeligt at køre alt efter bogen på default, når man ikke kan se forskel. Nvidia har pt bedre AF, så derfor slår de på den hest.
--
#32
Skumleren^
Elitebruger
23-11-2010 00:00

Rapporter til Admin
Det ville godt nok være en del billigere :D Fuck Fuck, penge er til for at blive brugt ;-)
--
i7 980x, Asus P6T6 WS Revolution, Kingston 1600mHz DDR3 3x2GB, 2xGTX 580 SLI, Cougar 1000W, Intel X25M 80GB SSD, Antec P183, Acer GD245HQ 120Hz
#33
Kræmmern
Semi Nørd
23-11-2010 03:31

Rapporter til Admin
Af og AAA og dobelt AAAA.. der er billede på skærmen... og det er godt... lad os nu spille noget BBc2
--
GigabyteDs3R-E6600-4x1gb CBcl4800mhz-X-FiFatal1ty- 2xWD 250gbRaid0-Ati2900pro1gb-sataDVD±RWFortronBlueStormII500w2x18A-ThermalTake Tsunami-
#34
M.Beier
Elite Supporter
23-11-2010 03:46

Rapporter til Admin
Ehm, det sjove er blot at alle seriøse testere sætter driverne manuelt...? Suk... Hvor langt kan nvidia synke, og så endda nu hvor ikke alene deres 480GTX er hurtigere end HD5870, men ligeså er 580GTX som noget nær tangerer med ATI's dobbelt GPU løsning.... Kender ikke de andre sider, men kender flere fra PCGH, og ved hvordan de arbejder, særligt eftersom jeg konsulterer med dem ofte vedr. andre ting... Ak ja.... Tro kan flytte bjerge.
--
Events; AOCM(x2),AMD-OC-DK,TweaKING,P55 Challenge,AOCM, Cebit(x4),GOOC. Powered by; Gigabyte & Corsair GRÆDER når jeg læser "Gamer bærbar"
#35
MadsE
Supporter
23-11-2010 08:37

Rapporter til Admin
Syntes at have læst på flere andre sider at i "real life" der kunne folk sgu alligevel ikke se forskel på IQ'en. Nå jeg er også ligeglad,jeg bruger for det meste nemlig optimerede driverer :-)
--
Veritas Vos Liberabit GA MA790GP-DS4H/Phenom II X3@X4 3600 MHZ/GTX275/2x2OCZPC8500- / 700WChill/samsungF1 1TB/Coolermaster HAF932
#36
Deathie
Super Supporter
23-11-2010 08:49

Rapporter til Admin
Jeg tænker også at de fleste større spil bliver der direkte optimeret til. Dermed kan man sige at de x antal ekstra fps i en generisk 3d test måske er mere retvisende end uden. Er det snyd? Sikkert, men der er sgu så meget andet der også er på grænsen. http://www.tgdaily.com[...] Uden at jeg kender noget den ovenstående sag...
--
#37
martinbg
Maxi Nørd
23-11-2010 09:15

Rapporter til Admin
omg Nvidia mister mere og mere raspekt for dem lad nu vær med at udtale jer om sådan noget, tænkt på hvor meget mere grafikkort nvidia ville kunne lave vist de ikke sad og piv på nette hele tiden :D
--
Bundkort: ASrock A780G CPU: AMD Phenom II X4 3.0Ghz Grafikkort: Sapphire Radeon HD 4870 512 GDDR5 RAM: A-Data 2x2GB+2*1 800 MHz
#38
lysseslukker
Juniorbruger
23-11-2010 10:03

Rapporter til Admin
øhh er det mig der er blind, men bliver billedet ikke bedre på amd kortne i hq end nvidia`s. Eller er det bare mig?
--
Phenoem 2 965, OCZ 1600mhz cl7 4gb, club3d 5850
#39
jeffe
Gæst
23-11-2010 10:30

Rapporter til Admin
Hvorfor er I efter Nvidia her? Det er jo helt åbenlyst ATI, der har snydt. Synes da ikke man kan bebrejde Nvidia at gøre opmærksom på det. Ohh well, verden er underlig.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#40
bQnne
Maxi Nørd
23-11-2010 10:41

Rapporter til Admin
#38 Venstre side i filmene (højre side er ens på alle (!) da den er todelt - det tog mig lidt tid at gennemskue lol) bør gerne være mere flimrende på AMDs kort, end på Nvidia. #37 Hvis de mister penge, fordi folk uhæmmet køber AMD kort fordi de på baggrund af forkerte og fejlagtige sammenligninger er "bedre" end Nvidia, så kommer der sgu ikke så mange grafikkort fra deres side. Nvidia brokker sig ikke KUN over at AMD er en flok snydepelse, men over at de har en reel stor mulighed for at blive sammenlignet på uens og uretfærdig grundlag - i værste tilfælde hvor AMD vinder 10% ydelse. ...om AMD så stadig er bedre end Nvidia, efter grafikken er synligt ens, det skal jeg ikke kunne sige. Dog skal vi ikke (som mange har gjort i tråden) give skylden til dem der tester. De har ingen reel grund til at være eksperter på diverse indstillinger og forskelle. Det er noget de ambitiøse får æren af at lege med. :)
--
Computer setups: Se profil. :) If life was a cake, how fast would you eat it?
#41
lysseslukker
Juniorbruger
23-11-2010 11:46

Rapporter til Admin
#40 tak, nu fandt jeg ud af det. Det viser vel bare at nvidia grafik kort ikke har så meget flimmer som amd kort. har sgu godt nok aldrig lagt mærke til noget flimmer , når jeg spiller.
--
Phenoem 2 965, OCZ 1600mhz cl7 4gb, club3d 5850
#42
gripen90
Gæst
23-11-2010 13:13

Rapporter til Admin
Jeg synes nVidia burde lukke så vi kunne høre AMD brugerne pive i kor. Det er da snart uudholdeligt at der ikke er et gran af kritisk sans iforh begge lejre.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#43
Kasper S
Ny på siden
23-11-2010 13:59

Rapporter til Admin
Ret mig hvis jeg har læst forkert? Men står der ikke, at amd har sat grafikken ned for at komme ned på nvidia's niveau? og det giver en ydelses forbedring på 10% til amd?
--
#44
xboy
Monsterbruger
23-11-2010 14:51

Rapporter til Admin
Vis det er "snyd", hvad skal vi så kalde nvidia's gtx580 furmark stund med auto downclocking, for at få nogle til og tro at det er et koldere kort ind gtx480! (efter 20 minutter med crysis bliver et gtx580 98c+! med fan speed på 50%) vilket gør det meget svære og overclocke det:(
--
Haf X |ASUS M4A89TD| AMD 1090t 4.1 Ghz| |NH-D14| ASUS 5870 MATRIX P| Corsair GT 4GB cl-6-6-6-20| Creative X-Fi Pro| WD BLACK 1TB SATA ATA-600MBps|
#45
LeetDonkey
Giga Supporter
23-11-2010 14:54

Rapporter til Admin
#44 Ja for det er jo 'kun' nvidia der gør det: http://www.techpowerup.com[...]
--
#46
xboy
Monsterbruger
23-11-2010 15:14

Rapporter til Admin
#45 ja det var en nedtur for AMD den gang, men er det ikke lidt dumt af nvidia og gøre siden det er sket før? BTW jeg syntes også det er træls af AMD og "snyde" med AF, MEN jeg er også lidt ligeglad siden jeg ikke kan se forskæl fra mit 5870 og mit gtx460...
--
Haf X |ASUS M4A89TD| AMD 1090t 4.1 Ghz| |NH-D14| ASUS 5870 MATRIX P| Corsair GT 4GB cl-6-6-6-20| Creative X-Fi Pro| WD BLACK 1TB SATA ATA-600MBps|
#47
bQnne
Maxi Nørd
23-11-2010 16:20

Rapporter til Admin
#43 Nej, ikke hvis du ser sammenligningerne på den tyske side (et videre link), inde på bloggen. Som #41 siger, så er der en forskel på hvor meget det flimre, når man kører testen. Det er ikke noget mærkbart man kan se i spil med øjet, det er klart, men når det hele måles i en enhed (FPS) og ikke i visuel glæde/tilfredsstillelse, så kan der være en forskel, som giver føretrøjen til det forkerte firma. Det er dette NVIDIA brokker sig over. ;) Det betyder jo selvfølgelig ikke at man ikke bør købe AMD kort - de sparker jo stadig mindst lige så meget *** som NVIDIA - men man kan jo overveje med sig selv, hvilket firma man holder med rent etisk (...da de begge to er "slemme", men det lige her er AMD der er for skud). :)
--
Computer setups: Se profil. :) If life was a cake, how fast would you eat it?
#48
ToFFo
Guru
23-11-2010 18:21

Rapporter til Admin
Troede ikke Nvidia gik i så små sko. De må godt nok føle sig presset. QQ Nvidia... Let røven og kom igang med at lave nye innovative grafikkort og overhal AMD, i stedet for at sidde og tude. Helt ærligt.
--
Rampage II Extreme 6GB Mushkin 1600MHz CL6 i7 920 @4,4GHz ASUS GTX480 Intel X25-M G2 4xWD 250gb, 2xWD 1TB, 2xWD 500gb Fortress FT02
#49
superbjoern
Elite Supporter
23-11-2010 20:11

Rapporter til Admin
#42 Hvordan fuck tror du så ikke konkurrencen/priserne ville være? Yay, 3000 for et 6850... -.-
--
[email protected] - tilføj hvis du har noget relevant at spørge om Før du overclocker: http://hol.dk[...]
#50
xXfailzorXx
Monsterbruger
23-11-2010 20:43

Rapporter til Admin
#47 Jeg så lige den omtalte video selv og det er faktisk utroligt så stor forskel der er. Der vil jeg faktisk støtte lidt op om nVidia, selvom jeg på ingen måde er fanboy. Det er lidt slapt af AMD..
--
i5 760 @ 3.6 GHz - Kingston DDR3 1333 MHz - Antec Nine Hundred - Zotac GTX 460 1 GB - Chieftec 750W PSU - Asus P7P55D-E Pro
#51
DwArK
Nørd
24-11-2010 11:49

Rapporter til Admin
NVIDIA skal bare lukke røven, og få frigivet deres Tegra 2 chip så man kan få en ordentlig smartphone samt tablet..
--
AMD Phenom X2 555BE /X4 B55 3,6ghz | 2x2048MB OCZ Gold 1400MHZ | 1GB XFX Radeon HD 5770 | Creative Audigy 2 ZS, Microsoft Explorer Intelli 3.0
#52
Angloamerikansk
Semi Supporter
24-11-2010 12:00

Rapporter til Admin
Fatter simpelthen ikke at nogen gider købe AMD/ATI grafikkort når de kan købe meget bedre nVidia kort. Er mig en gåde ???
--
#53
bQnne
Maxi Nørd
24-11-2010 12:06

Rapporter til Admin
#52 Det er ikke alle NVIDIA kort der er bedre end AMD. Denne nyhed er ikke en nyhed om hvem der er bedst, men basalt set om hvor meget vi bør finde os i, mht. optimering af drivere på bekostning af billedekvalitet.
--
Computer setups: Se profil. :) If life was a cake, how fast would you eat it?
#54
DwArK
Nørd
24-11-2010 12:43

Rapporter til Admin
#52 Fanboy?
--
AMD Phenom X2 555BE /X4 B55 3,6ghz | 2x2048MB OCZ Gold 1400MHZ | 1GB XFX Radeon HD 5770 | Creative Audigy 2 ZS, Microsoft Explorer Intelli 3.0
#55
mr.decoy
Monster Supporter
24-11-2010 18:52

Rapporter til Admin
#54 Barnet har bare ikke lært udsagnet "Jeg synes".
--
In Soviet Russia.. Games play you.

Opret svar til nyheden: Nvidia udtaler: AMD har snydt!

Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.

Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.

Opret bruger | Login
NYHEDSBREV
Afstemning