Seneste forumindlæg
Køb / Salg
 * Uofficiel Black/White liste V3
Login / opret bruger

Nyheder

NVIDIA "GT200" Geforce GTX 280 3Dmark Scores?

Skrevet af Thomas Christensen | 16-05-2008 01:04 | 4134 visninger | 17 kommentarer, hop til seneste

Lige som man troede, at NVIDIA seneste udmelding om, at de ville gøre navngivningen nemmere at forstå, popper der et nyt navn op for NVIDIA's kommende GPU opdatering ved navn GT200, hvis største modeller ifølge HKEPC og Fudzilla kommer til at hedde Geforce GTX 260 og 280.

Dermed går NVIDIA over til en ny navngivning, og ikke mindst følger i ATI's spor, da forskellen på modellerne i samme serie ikke længere er GT, GTS, GTX osv., men i stedet modelnavnet.

Dermed bytter NVIDIA om på rollerne, så vores gode gamle GT, GTS, GTX, Ultra osv. definerer markedet imens nummeret nu definerer selve modellen. Dermed repræsenterer "Geforce GTX" serien high end markedet, og man må formode, at mainstream modellerne kommer til at hedde "Geforce GTS" eller nok mere sandsynligt "Geforce GT" samt dertilhørende modelnumre.

Ifølge Fudzilla frigiver NVIDIA deres GT200 chip i uge 25, dvs. 16-20. juni, og det er selvsamme uge ATI planlægger at frigive Radeon HD 4850.

"phk" fra PCinlife tilføjer desuden, at Geforce GTX 280 sammen med en QX9650 vil score 16.000 i 3DMark Vantage. Han nævner dog ikke ved hvilke indstillinger, men til sammenligning er det lige under to stk. Geforce 9800 GX2 i SLI ved 1280x1024 med launch driveren. Han har før haft ret, og 3DMark Vantage rookies som vi er, må i for en sjælden gangs skyld komme med dommen...

- Relaterede nyheder:

#1
mikemax12
Monsterbruger
16-05-2008 01:06

Rapporter til Admin
lyder forvirrende
--
Intel Core 2 Quad Q9300 @ 3,13 ghz Corsair XMS2 4 GB 800 MHz PC2-6400 Gigabyte 8800GTS 320 MB core-656 mem-984 HKC 580W PSU, Antec Nine Hundred
#2
HiroshimaJoe
Elite Supporter
16-05-2008 09:15

Rapporter til Admin
De burde bare starte med talrækken fra en ende af: GeForce 1 GeForce 2 GeForce 3 GeForce 4 GeForce 5 Jo højere nummer jo hurtigere GFX, færdig bom!
--
mail: [email protected]
#3
Mcka
Ny på siden
16-05-2008 09:47

Rapporter til Admin
Jeg kan godt lide, at man tester quad sli ved 1280x1024 (: Det er jo umuligt at sammenligne gfx i den opløsning - for det første fordi ingen spiller nyere spil i så lav opløsning, da vi alle sidder med 22" skærme eller større og for det andet, fordi cpu'en pludselig er en langt større faktor.
--
#4
nikolajp
Junior Supporter
16-05-2008 14:18

Rapporter til Admin
Er lidt forvirret. Er dette en G92-chip viderudvikling eller en helt ny generation af chip? Hvis ikke, hvornår kommer denne måske? Ydelse omkring 2*9800GX2 i SLI er jo vanvittigt.
--
#5
Mattfan
Semibruger
16-05-2008 15:13

Rapporter til Admin
Noget siger mig alligevel det måske bliver en dyr fornøjelse :)
--
Intel Core 2 Quad Q9450 - Gigabyte P35 DS3P Geforce 9800GTX 250gb Samsung 2x2gb Corsair pc6400 Antec 900 - Corsair 550W Samsung SM 226BW 22"
#6
Niels Madsen
Gæst
16-05-2008 17:44

Rapporter til Admin
Kun i starten, hardware priser har aldrig været mere rimelige end de er nu, med en lav dollar og en lav pundkurs. Til 16K 3dMark point og hvis det kan klare sig fint på memory fronten vil jeg gerne give over 2000 for det.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#7
ThorbjornTux
Supporter
16-05-2008 18:41

Rapporter til Admin
Nu er ikke så god til kinesisk men i linket (kilden) står der: QX9650 OC + GT200 on the Vantage =P13000+ Uanset overrasker den høje performance ... nVidia har "overraskende nok" ikke tænkt sig at blive kørt helt over af AMD ....
--
www.kubuntu.org[...]
#8
gæsteren
Gæst
17-05-2008 10:49

Rapporter til Admin
Det bliver interessant at se om Nvidia har tænkt sig at gøre noget ved deres idle strømforbrug eller om de simpelthen er blevet ligeglade med det nu hvor de har lanceret Hybrid Power.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#9
crucial-kid
Nyhedsredaktør
17-05-2008 17:50

Rapporter til Admin
#2 HiroshimaJoe - Problemet er jo så, at vi med GT200 ville have et Geforce 10.800 GTX. Det er ikke skide hensigtsmæssigt, og derfor valgte ATI også at krybe udenom den, da de stod i samme situation med X800 i 2004. #3 Mcka - Det er et syntetisk benchmark program, og ikke et spil, så dit scenarie dur ikke helt. Du kan dræbe grafikkort i 1024x768 skulle du have lyst, og annullere CPU'ens betydning i 640x480. #4 nikolajp - Den arver Geforce 8 arkitekturen, men tilføjer nye ændringer. Vi vil højst sandsynligt se nøjagtig samme opbygning som G84/86/92/94/96, men i stedet med nye tilføjelser. Hvor mange der så bliver desktop orienteret, er spørgsmålet. #6 Mattfan - Du kommer så også til at give noget der ligner det dobbelte for det, men skidt pyt. #8 gæsteren - Hvorfor skulle NVIDIA dog ikke gøre det? Det har de jo mere eller mindre gjort ved hver generation, om det så har været proces eller teknologi baseret.
--
Mvh. Thomas Christensen
#10
gæsteren
Gæst
17-05-2008 22:27

Rapporter til Admin
#9 For at være mere specifik snakker jeg om et eller andet tilsvarende til Speedstep, Cool n Qiet og Powerplay. Geforce FX havde rent faktisk en 2d mode hvor den automatisk skruede ned for gpu frekvensen, sandsynligvis på grund af at der udadtil var et kolosalt synligt behov for det da deres blæser brumlede som en hårtørrer dengang. Men mig bekendt har nvidia været ligeglad med dette aspekt fra 68xx og op efter. Flere af mine kammerater har de første generationer af 8800GT og deres gpu sidder med 50-60 grader celsius bare for at stå i idle. Og jeg har læst adskillige tests hvor Nvidias idle strømforbrug ofte når de 40-60 watt i high-end. Det må da kunne gøres bedre...
--
Gæstebruger, opret dit eget login og få din egen signatur.
#11
Nubi
Mega Nørd
17-05-2008 23:31

Rapporter til Admin
#10 > Tjah hvis det idler på 40-60w og bruger 160-200w på full load, så er det jo kun 20% forbrug idle, det synes jeg egentlig er ok pænt :-) Ellers sandt nok med FX serien, de støjede godt nok også forfærdeligt.
--
http://steffenskov.homepage.dk[...]
#12
gæsteren
Gæst
18-05-2008 06:42

Rapporter til Admin
#11 25-30% er nok lidt mere præcist. Men ja jeg er i bunden enig i at det kunne være meget slemmere. Men det er altså stadigvæk ikke imponerende i forhold til hvad Intel og AMD har formået. ATI har været lige så slemme som Nvidia på det her punkt men AMD har heldigvis taget fat og fået dem til at bruge Powerplay i deres desktop serier og ikke kun forbeholde det til mobil.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#13
Nubi
Mega Nørd
18-05-2008 14:02

Rapporter til Admin
#12 > Ja du har ret, de 20% var vidst lige skudt ved siden af :-)
--
http://steffenskov.homepage.dk[...]
#14
eric clapton
Giga Supporter
18-05-2008 20:30

Rapporter til Admin
gad vide hvad det kort ligger i set i forhold til 8800 gtx i opløsningen 1920x1200 det bliver spændende at se,har i nogle bud hvor meget hurtigere det bliver
--
core2duo 6600,8800gtx,4 hardiske,4 gb ram og acer 24" fladskærm 1920*1200
#15
martin-da-man
Giga Supporter
18-05-2008 21:01

Rapporter til Admin
¨tjaa google trabslate er ikke super til at oversætte til dansk men her er hva den gav http://www.google.com[...]
--
xeon E3110/HD2900XT/Asus Commando/Corsair Twin xms2/Vand køling/Samsung t166 500gb/ årrh Hold da kæft SutMinFlaske & Sandkasse
#16
crucial-kid
Nyhedsredaktør
18-05-2008 21:55

Rapporter til Admin
#10 Det havde de til og med Geforce 6, men er det ikke genintroduceret med GF8? Anyway de droppede det med G71 (måske endda 7800, men jeg mener det var 7900), og da jeg spurgte NVIDIA om det var svaret, at det ikke betød det store, og derfor va udeladt. Man kan være uenig, men de havde en pointe, da de alligevel vandt kampen om laveste idle strømforbrug. #12 Nu ved jeg ikke helt, hvor meget Intel kan bruges i den her sammenligning. Det er btw. kun på desktop fronten, at AMD med den seneste opdatering klart vinder idle strømforbrug dysten. Nå men forleden dukkede et bud på specs op. Der er egentlig ikke en ny information i dem, men eftersom de er samlet, må de hellere nævnes: http://forum.donanimhaber.com[...] Jeg synes fortsat det lugter af en Geforce Ultra 280 I Q4 med GDDR5.
--
Mvh. Thomas Christensen
#17
gæsteren
Gæst
18-05-2008 22:34

Rapporter til Admin
#16 "Det havde de til og med Geforce 6" http://www.hardwarezone.com[...] citat: "Stock 2D GPU clock = 400MHz Stock 3D GPU clock = 400MHz" Og nej, Geforce 8 desktop har ikke et tilsvarende Speedstep mekanisme. "da jeg spurgte NVIDIA om det var svaret, at det ikke betød det store, og derfor var udeladt. Man kan være uenig, men de havde en pointe, da de alligevel vandt kampen om laveste idle strømforbrug." Hehe, det er altså ikke en skudsikker pointe du har fat i der. Som sagt så var ATI lige så slemme som nvidia til at ødsle i idle strømforbrug dengang, og på samme måde skal man da heller ikke være stolt over at bruge mindre benzin end en Amerikansk SUV... At Nvidia kalder et 50 WATT idle forbrug i Geforce 8 for "ikke det store" viser jo bare deres mentalitet. Og samtidig sænker det mine forventninger til GT200s idle strømforbrug... "Nu ved jeg ikke helt, hvor meget Intel kan bruges i den her sammenligning." Nåh ja det var sådan set bare for at pointere at Intel og AMD kan finde ud af at bruge Speedstep og Q&C og dermed fået nogle imponerende resultater i idle strømforbrug, hvorimod Nvidia åbenbart synes "det er ikke så vigtigt for desktops".
--
Gæstebruger, opret dit eget login og få din egen signatur.

Opret svar til nyheden: NVIDIA "GT200" Geforce GTX 280 3Dmark Scores?

Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.

Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.

Opret bruger | Login
NYHEDSBREV
Afstemning