Seneste forumindlæg
Køb / Salg
 * Uofficiel Black/White liste V3
Login / opret bruger

Nyheder

Dual Chip NVIDIA Fermi Kort Allerede I År

Skrevet af Thomas Christensen | 04-10-2009 23:46 | 3724 visninger | 28 kommentarer, hop til seneste

Til NVIDIA's GPU Technology Conference lancerede de Fermi, deres næste generation DirectX11 grafikchip, og fremviste i den forbindelse et fiktivt kort lavet i sidste minut som repræsentant for Geforce varianten, men Fermi finder vej til hylder i tre varianter allerede i år.

Mest overraskende forlyder det, at dual chippen måske allerede når at blive klar til lancering sammen med de første single chip grafikkort. Ifølge Fudzilla kommer den med en TDP på op til 300 watt, hvilket svarer til det eksisterende dual chip grafikkort Geforce GTX 295, som har en TDP på 289 watt. Der er altså ikke krav om yderligere køling sammenlignet med tidligere generation, men det er alligevel en overraskelse af de store, hvis den bliver lanceret allerede i år og sammen med single chip versionerne.

Ligeså interessant er det, at deres andet hurtigste single chip kort ifølge deres oplysninger skal kæmpe med Radeon HD 5850, og ikke Radeon HD 5870. Forudsat disse oplysninger viser sig at være korrekte, placerer det derfor den hurtigste single chip version direkte overfor Radeon HD 5870, og ikke ligesom sidste generation et stykke over.

Med ca. en tredjedel færre transistorer i AMD's RV870 chip sammenlignet med NVIDIA's Fermi chip, har AMD ligesom med sidste generation en billigere chip, hvorfor NVIDIA's modeller skal prissættes højere og derfor være hurtigere.

I den anden lejr har AMD allerede to kort ude, og forventes at lancere en dual chip X2 version indenfor den næste måned og ligeså en billigere single chip version. I vanlig stil er efterspørgslen stor efter de første kort i en ny generation, og selv med AMD's mindre chip har de problemer med at følge med efterspørgslen. Det vil derfor være overraskende, hvis NVIDIA kan have dual chip varianten klar til lanceringen, men dual chip eller ej, presset er unægteligt på NVIDIA.

#1
azeone
Monsterbruger
04-10-2009 23:50

Rapporter til Admin
Lækkert, så er der en hård pakke man kan ønske sig til jul :-)
--
#2
(FIH) The Don
Giga Nørd
04-10-2009 23:52

Rapporter til Admin
skulle satme ikke undre mig om de overrasker alle med at have hele serien klar til lancering, kunne eddermame være nizzle
--
Gigabyte GA-EX58-UD5/i7 920/6 GB Kingston HyperX 1600mhz CL8/1TB HD/Noctua NH-U12P/Inno3D GTX-295 / http://www.techpowerup.com[...]
#3
Sonnyboy442
Maxi Supporter
04-10-2009 23:52

Rapporter til Admin
Det lyder fedt, men de nye kort var da ikke meget bedre til gaming end den nuværende GTX 200 serie, eller har jeg ikke forstået det rigtigt?
--
#4
SkylineGTR
Monster Supporter
04-10-2009 23:57

Rapporter til Admin
2 af sådan nogle stykker i Quad-SLI, ja tak. Be om. Er virkelig spændt på at se hvordan Nvidia´s nye chip klare sig mod revalen ATI´s nye kort. Men det skal ikke være nogen hemmelighed, at Jeg hæpper på Nvidia...
--
Core i7 920 DO stepping OC til 3.6 GHz ASUS Rampage II Extreme 6 GB DDR3 Corsair Dominator 3 x Zotac GTX 285 BELONGS TO THE DARKSIDE OF GAMERS.
#5
HenrikM
Elite Supporter
04-10-2009 23:59

Rapporter til Admin
#1: lancering er i denne sammenhæng ikke hårde pakker man kan ønske sig, med mindre man er reviewer på et af de helt store sites ;) I øvrigt mener jeg vi er ude i den noget tynde rygteafdeling mht x2 kortet, der er ikke andre end fudo der påstår det (men ok, han fungerer ret tydeliget som talerør for nvidia i øjeblikket). Det skal så også være et dual kort som nødvendigvis har samme strømstik (6+8) som det enkelte..
--
#6
Sonnyboy442
Maxi Supporter
04-10-2009 23:59

Rapporter til Admin
#4 Må give dig ret, og så må man håbe at deres dual chip grafikkort er bedre designet end GTX 295 så spillene måske kan registrere det som 1 kæmpe grafikkort :P
--
Gigabyte EX58-UD4P|Intel Core i7 920 Do Stepping 4,00 Ghz|Corsair H50 køler|Patriot Viper DDR3 RAM|2*500GB WD harddiske|BFG GTX 285|CM Stacker 832
#7
SkylineGTR
Monster Supporter
04-10-2009 23:59

Rapporter til Admin
#3 Hvis det passer, skyder Nvidia da godt nok sig selv i foden total og Ati løber med sejren. Så har svært ved at tro at det passer, men man ved aldrig.
--
Core i7 920 DO stepping OC til 3.6 GHz ASUS Rampage II Extreme 6 GB DDR3 Corsair Dominator 3 x Zotac GTX 285 BELONGS TO THE DARKSIDE OF GAMERS.
#8
Sonnyboy442
Maxi Supporter
05-10-2009 00:05

Rapporter til Admin
#7 Det er taget fra denne tråd: http://www.hardwareonline.dk[...] Der står følgende: At NVIDIA vælger GPU Technology Conference til at offentliggøre chippen, og ikke lancere den, vidner om, at den stadig er minimum 1½ måned ude i fremtiden. Trods eventen er rettet mod udviklere, og ikke Geforce gamere, er budskabet fra NVIDIA ikke til at tage fejl af: Fermi skal først og fremmest slå til på de nye vækstmarkeder og udbrede GPU'ens arbejdsopgaver som direkte konkurrent til CPU'en, hvorimod spil er en arbejdsopgave NVIDIA betragter som fuldendt. Kan jeg have misforstået det i sidste linje startende fra, hvorimod?
--
#9
SkylineGTR
Monster Supporter
05-10-2009 00:14

Rapporter til Admin
#8 nej, du misforstår faktisk ikke noget. Ifølge det tyder det på at Nvidia ikke satser så hårdt på gamer delen denne gang. Men vil mene at det i så fald er en tåbelig fejl fra Nvidia´s side af hvis de mere satser på grafikort til f.eks. Workstasions (deres Quadro serie) og til deres Tesla platform denne gang, frem for til gamer. I det, det sørste marked efter min mening ligger nettop på gamer fronten, eller vil Nvidia virkelig over se dette og lade Ati rende med det hele? Det giver ikke meget mening, da det jo i sidste ende går ud på at tjene penge på sine produkter og det vil jeg da mene at de nettop gør med grafikkort til Desktop og gamer fronten. Eller er der virkelig større salg i kort til andre områder end til gaming? ja jeg spørger bare.
--
#10
Sonnyboy442
Maxi Supporter
05-10-2009 00:17

Rapporter til Admin
#9 Okay så lyder det ikke til at jeg har forstået det helt forkert, men håber nu at deres nye dual chip kort er designet bedre end GTX 295 som der vidst skulle have været lidt problemer med, især i GTA IV hvor folk ikke kunne presse den meget over de 896 MB ydelse, hvilket jo er underligt, når den har ca. 1,792 GB :P
--
Gigabyte EX58-UD4P|Intel Core i7 920 Do Stepping 4,00 Ghz|Corsair H50 køler|Patriot Viper DDR3 RAM|2*500GB WD harddiske|BFG GTX 285|CM Stacker 832
#11
crucial-kid
Nyhedsredaktør
05-10-2009 00:37

Rapporter til Admin
#6 Spil kan ikke registrerer to grafikkort, så det er ret simpelt. API'en og driveren sørger for dette, men for alle andre led er det et grafikkort, og eneste spillet gør, er at slå profiler fra og til. #8 + #9 NVIDIA satser ligeså hårdt på Geforce og spil som altid, EOD. De har bare også andre prioriteter, og denne gang fik det indflydelse på designdelen og var ikke kun afsprunget heraf. Nye grafikkort kommer altid med teknologier og funktioner, som ikke bliver brugt i deres levetid, og det vil være mere synligt med Fermi end nogensinde - opfattelsen vil i hvert fald være mere synlig. De tilføjer en masse nye muligheder foruden den rå ydelse, og det kan koste på kort sigt, men tilføjer samtidig nye muligheder. Fans vil naurligvis flame, da det aldrig er godt at signalere, at der er andre fokus områder end lige dem, men testen er og bliver spilydelse som altid for Geforce, og NVIDIA virker som altid sikre på, at de er hurtigst - hvilket de også skal være med så mange transistorer. Tag GT200 vs. RV770 og tilføj en masse negative motiver og støj for NVIDIA's valg, så har du nogenlunde samme dyst som før. Opfattelsen af resultatet vil nok svinge mere til AMD's favør pga. NVIDIA's nødvendige udmeldinger, men det vil blive afgjort når de bliver lanceret. It's all about mindshare. #10 De har kun 896MB per kerne, og det er loftet. De kan godt låne hos hinanden, men det er problematisk ligesom det er to to selvstændig kort i SLI eller for så vidt også et single grafikkort. Det svarer lidt til, at dig og din nabo hamrer søm afsted i et hæsblæsende tempo hver for sig, men løber du tør for søm og skal hente dem hos din nabo, kan du ikke hamre søm afsted i samme tempo som før. Et dual chip kort har derfor reelt kun halv hukommelse tilgængelig, ligesom to selvstændige grafikkort i SLI har.
--
Mvh. Thomas Christensen.
#12
Sonnyboy442
Maxi Supporter
05-10-2009 00:43

Rapporter til Admin
#11 Okay så fik jeg da et fint og klart svar på mit spørgsmål, mange tak :) Så skal man måske alligevel have et nyt GFX når de kommer, hvis pengene er til det, da de nok bliver temmelig dyre :) Men venter til jeg har set lidt benchmarks med dem, for skal da helt klart have noget der kan trække Crysis 2 uden problemer :P
--
Gigabyte EX58-UD4P|Intel Core i7 920 Do Stepping 4,00 Ghz|Corsair H50 køler|Patriot Viper DDR3 RAM|2*500GB WD harddiske|BFG GTX 285|CM Stacker 832
#13
(FIH) The Don
Giga Nørd
05-10-2009 02:13

Rapporter til Admin
læste et sted at de nye kort ville få nogle af de her specs 3.0 billion transistors 40nm TSMC 384-bit memory interface 512 shader cores [renamed into CUDA Cores] 32 CUDA cores per Shader Cluster 1MB L1 cache memory [divided into 16KB Cache - Shared Memory] 768KB L2 unified cache memory Up to 6GB GDDR5 memory Half Speed IEEE 754 Double Precision så kommer der smæk på drengen:-P
--
Gigabyte GA-EX58-UD5/i7 920/6 GB Kingston HyperX 1600mhz CL8/1TB HD/Noctua NH-U12P/Inno3D GTX-295 / http://www.techpowerup.com[...]
#14
Dozer
Mega Supporter
05-10-2009 06:12

Rapporter til Admin
#13 ja, og du vil også se et grusomt prisskilt på det med alle de ram. GDDR5 ram er bestemt blevet en del billigere fra de kom på markedet, men 6 GB på et kort vil stadig drive prisen i vejret, for slet ikke at snakke om alle de mange transistorer. - Dozer
--
Dåååmme CK. Dåååmme Zimes. Straf mig hårdt.
#15
ThomasS
Monsterbruger
05-10-2009 07:52

Rapporter til Admin
Jeg tror Nvidias mening er alt lave deres chip skalerbar, så de kan bruges til både supercomputing og gaming. Man kan sige meget om PhysX, men hvis det var udbredt ville Nvidias chip ret sikkert løbe fra ATI's i stor stil. Det bliver interresant og se hvad man ellers kan bruge Nvidias chip til. Jeg gætter på den nye arkitektur også kan bruges til at beregne lyd effekter med, noget som musikere som regelt har købt et ekstra udregnings kort til (UAD & Powercore). Så ved at lave en ny arkitektur der kan bruges til alt, vil investeringen kunne betales tilbage på mange fronter, og ikke kun på gamer fronten som det bliver i ATI's tilfælde. Det kan komme gamerne til gode hvis Nvidia vælger at flade prisen ud for dem, og i stedet tjene kassen på supercomputing.
--
#16
ezistef
Mega Supporter
05-10-2009 07:57

Rapporter til Admin
Håber at Nvidia kommer godt og hurtigt fra land med deres nye kort, så de kan presse AMD på ydelsen, så vi måske kan få endnu billigere AMD kort.
--
Fair Trade
#17
ezistef
Mega Supporter
05-10-2009 12:58

Rapporter til Admin
Hvorfor er det, at enten Nvidia's eller Intel's nyheder skal så øverst på HOL? Mvh. Ezistef
--
Fair Trade
#18
ThorbjornTux
Giga Supporter
05-10-2009 18:53

Rapporter til Admin
Jeg tvivler på at der er et (eller i hvert fald mange) dual Fermi kort i år. Sandsynligvis når de at få lavet nogle kort, men umiddelbart vil jeg gætte på relativt få eksemplarer (altså en slags paper-launch) De har også nu erkendt, at de første billeder af deres kort var fup. http://www.bit-tech.net[...] nVidia vil selvfølgelig gerne give det billed, at kortet er meget bedre end AMDs 5xxx-kort og at kortet snart er ude. Dog virker det urealistisk at ville kunne mætte et marked så hurtigt med et kort, der endnu ikke findes i endelig prototype. (Forudsat at kortene virkelig er så gode, som nVidia siger) Der er ikke noget underligt i dette - AMD brugte selv ganske grimme metoder med deres R600-fiasko. (Som 'var lige på trappen' og 'meget bedre' - hvor virkeligheden var - stærkt forsinket - og ikke nær så god ...) nVidia kan selvfølgelig overraske positivt, men umiddelbart er de allerede på et skråplan ... Det med at man kan c++-programmere det lyder dog som et spændende tiltag.
--
Er ikke begejstret for monopoler som Post Danmark, Intel og MS
#19
icreate-c-sharp
Super Supporter
05-10-2009 19:31

Rapporter til Admin
#18 Måske har de ville ud med det indtryk for at skabe hype omkring deres kort så når de endelig kom ville de ryge endnu hurtigere end ellers. Eller som counter-move imod ATI for at sige vi klar lige om lidt så i skal ikke købe ATI for vores er bedre og de lige på trapperne. Men vil sige jeg glæder mig til nogle benches, med varme idle og load, og strømforbrug i idle og load, og så self. hvad det yder. SÅ kan vi se hvor godt de klarer sig imod ATI's nye kort, og om det prismæssigt er lige så forskruet som det har været tidligere.
--
Intel C2Q 2.66Ghz Q9450 | Asus P5Q3 Deluxe@Wifi | 4x1GB Corsair XMS 1333Mhz DDR3 | ATI HD4870 1GB DDR5 | 700W CoolerMaster Real Power M700
#20
crucial-kid
Nyhedsredaktør
05-10-2009 22:17

Rapporter til Admin
#14 Dozer Nu er 6GB kort jo heller ikke ligefrem noget, der står på menukortet. 1½GB er standard versionen med mulighed for en 3GB variant på et senere tidspunkt, men du vil ikke se noget 6GB kort på desktopmarkedet og al fokus er på 1½GB modellen. #16 Det er ikke NVIDIA's ydelse, som vil trække AMD's priser ned, det er AMD's chips, som vil tvinge NVIDIA's priser ned. Det afhænger altsammen af styrkeforholdet, naturligvis, men du vil se det samme som ved den seneste generation, nemlig at AMD "bestemmer" hvad NVIDIA kan tage for Geforce kortene.
--
Mvh. Thomas Christensen.
#21
badstue
Semibruger
06-10-2009 23:27

Rapporter til Admin
Men når alt kommer til alt.. så er vi stadig kun så småt på vej ud af "finanskrisen".. Derfor tror jeg og håber, at mange vil vælge ATIs løsning med et billigere kort og fornuftig ydelse.. ATI/AMD er slet ikke kommet ordentlig ind i kampen endnu til Nvidia allerede skal vinde dette juleslag(efter min mening). Og hvad vil i egentlig bruge al den ydelse til for de sikkert sindsyge priser.. ? Hvorfor ikke bruge de penge på noget lidt mere miljøvenligt :P
--
#22
ThorbjornTux
Giga Supporter
07-10-2009 07:35

Rapporter til Admin
#21 Både nVidia og AMD er jo hårdt ramt - og det bedste for dem (og måske konkurrencen på længere sigt) ville være at de gik sammen - da konkurrencen mod Intel er hård. Dog må vi jo lige afvente - og se hvad nVidia har. Der er ingen, der har set Fermi endnu - og det er ikke umiddelbart et godt tegn at deres CEO Jen-Hsun Huang står med et stykke pap-elektronik i hånden og fremviser det som værende Fermi. Meningen var jo nok at han skulle have demonstreret et virkende kort - i stedet blev det - foruden markedsføring-fusk - kun til påstande om hvad Fermi kunne. Derudover er nVidia de eneste, der bekræfter at Fermi er hurtigere end AMDs 5xxx-serie. Hvor længe tror du en nVidia medarbejder, der ikke bekræftede dette, havde sit job? Faktum er at ingen ved hvordan det nye kort yder. Jeg synes det lyder spændende at man kan c++ programmere det, men jeg tvivler på at det (til spil) er markant bedre end AMDs 5xxx - og jeg tvivler meget på at kortet kan leveres i stor stil i Danmark før jul.
--
#23
crucial-kid
Nyhedsredaktør
08-10-2009 21:33

Rapporter til Admin
"Derudover er nVidia de eneste, der bekræfter at Fermi er hurtigere end AMDs 5xxx-serie. Hvor længe tror du en nVidia medarbejder, der ikke bekræftede dette, havde sit job?" Du har naturligvis ret i den sidste pointe, de skal sige det, men jeg tror ikke der er tvivl om, hvorvidt den er hurtigere. Fermi skal ikke måles på, om den er hurtigere end RV870, ligesom GT200 ikke skulle måles på, om den var hurtigere end RV770. Den vil den noget så simpelt være i og med, at de har flere transistorer at lege med. Truslen er derimod den samme for NVIDIA, som Intel står med for Core i7 kontra Phenom II. Er forskellen stor nok, og kan AMD trække forskellen ned på et plan, hvor AMD's produkt er mest attraktiv pga. prisen. I et marked, hvor den ret billige forgænger Radeon HD 4890 kan kværne alt i 1920x1200 bliver det et nemt spørgsmål for rigtig mange, ligesom det var med Radeon HD 4870 i sidste dyst.
--
Mvh. Thomas Christensen.
#24
ThorbjornTux
Giga Supporter
09-10-2009 19:34

Rapporter til Admin
#23 Nu må vi jo vente og se nogle benchmarks. En 5870 har 1600 cores mod Fermis 512. Her kan Fermis cores jo meget mere pr. clock - men jeg tror de færreste har et klart billed i hovedet af hvad dette vil betyde i spil. (På programmeringssiden vinder Fermi jo klart) Under alle omstændigheder er Fermi (når det kommer) sikkert et glimrende kort, men som du selv er inde på vil ydelse/pris selvfølgelig være det mest interessante ... og her ved vi ikke mere før nVidia får frigivet noget...
--
Er ikke begejstret for monopoler som Post Danmark, Intel og MS
#25
ThorbjornTux
Ultra Supporter
09-11-2009 19:00

Rapporter til Admin
Jeg bliver vidst nødt til at indsætte denne her http://www.fudzilla.com[...] (og henvise til hvad jeg skrev i #18)
--
Er ikke begejstret for monopoler som Post Danmark, Intel og MS
#26
gQrgh
Giga Supporter
09-11-2009 19:20

Rapporter til Admin
Glæder mig at få information man kan forholde sig til :)
--
Mvh. gQrgh "Never under estimate the predictability of stupidity"
#27
gQrgh
Giga Supporter
10-11-2009 10:00

Rapporter til Admin
Glæder mig at få information man kan forholde sig til :)
--
Mvh. gQrgh "Never under estimate the predictability of stupidity"
#28
xEmineMx
Ultrabruger
10-11-2009 10:25

Rapporter til Admin
Jeg håber så meget at AMD/ATI tager tronen ;) Kunne være skide godt med en pæn portion konkurrence til Nvidia :b
--
Core 2 Duo E6850, X-FI Titanium, GeForce 8800gt, 4gb ram Windows 7 7600, Vista, XP Logitech: Z-5500, G9, G15 Acer Aspire 6920G Gemstone Blue

Opret svar til nyheden: Dual Chip NVIDIA Fermi Kort Allerede I År

Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.

Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.

Opret bruger | Login
NYHEDSBREV
Afstemning