Seneste forumindlæg
Køb / Salg
 * Uofficiel Black/White liste V3
Login / opret bruger

Nyheder

250 Watt Single Chip Monster Fra NVIDIA

Skrevet af Thomas Christensen | 05-02-2008 15:08 | 4588 visninger | 52 kommentarer, hop til seneste
Alt imens vi venter på Geforce 9800 GX2 og det mulige GTX kort, begynder NVIDIA's næste egentlige high end chip at spøge i kulissen, og ifølge Fudzilla skulle det blive endnu mere strømsulten end Radeon HD 2900 XT.

250 watt lyder det umiddelbare TDP bud, og det er ikke just en god forudsigelse. Det er nemlig mere end Radeon HD 2900 XT, som indtil videre har været det mest strømslugende single chip grafikkort på markedet til dato, og høstede stor kritik for dette, ikke mindst her på siden.

Kodenavnet for grafikkortet er det omtalte GT200, som også tidligere har været sat i forbindelse med Geforce 9800 GTX. Chipnavnet er dog ukendt, og GT200 er endnu en ændring af NVIDIA's navneskema, som grundet nyhedsbranchens natur efterhånden bliver ændret jævnligt.

GT200 skulle være et single chip grafikkort, og dermed indeholde mere end 1 milliard transistorer - formodentlig på TSMC's 65nm proces. Derudover kender vi ikke så meget til chippen, men det er meget usandsynligt, at NVIDIA hiver en ny arkitektur frem af skabet.

Vi formoder derfor, at den bygger videre på designet i G92 chippen, men byder på mindre tilføjelser i arkitekturen i stil med G92 kontra G80, integreret lydkort, 512-bit RAM bus samt ~50% flere enheder.

Kortet skulle komme i 2. halvår 2008, men endnu ved vi ikke om målet er 3. eller 4. kvartal. Den første indikation heraf kommer af en eventuel 9800 GTX variant bygget over G92 chippen.
#1
Aura
Mega Supporter
05-02-2008 15:20

Rapporter til Admin
What a waste. Synd at de er så skide ligeglade med hvor meget strøm der ska bruges til at trække deres lort. :( ATI har da heldigvis fået øjnene op for at et GFX-kort ikk ska bruge over dobbelt så meget strøm som resten af systemet. Strømforbruget er dog stadig ALT for højt IMO. Håber folk ka se idiotien i det voldsomme strømforbrug og lader være med at købe kort der bruger (unødigt) meget strøm.
--
Home is where you can say whatever you want .... nobody is listening anyway.
#3
flywheel
Nørd Aspirant
05-02-2008 15:31

Rapporter til Admin
Det er absolut fuldstændigt vanvittigt - samtidigt med at fabrikanterne af de andre dele af maskinen kæmper med at få nedbragt strømforbruget - kører vore venner her bare løs. Ikke kun for forbrugets skyld, men det at komme af med varmen må sku da begynde at blive et problem. Hvor store kobber-klumper kan der skrues fast på disse kort før fiberglasset perforeres?
--
Live long and prosper... http://www.angrykiwi.org[...]
#4
DevilsDay
Junior Nørd
05-02-2008 15:34

Rapporter til Admin
Nu synes jeg lige i skal tage det med ro! det er jo sådan set ikke Nvidia's skyld! Hvis vi alle bare kunne leve med et 8600GT så havde det jo ikke været noget problem? Det er jo forbrugerne der ikke tænker miljø nok, og bare skal have det stærkeste og bedste... Hvis der var flere der hellere ville have et mindre ydende kort med lidt strømforbrug, end der er som gerne vil se en udvikling i performance, så havde de nok ikke lavet det kort der her er omtalt...
--
Claus Codam Prospect Supporter Microsoft Certified Professional Coretech A/S
#5
Aura
Mega Supporter
05-02-2008 15:42

Rapporter til Admin
#4 Jo, der ville stadig være et problem IMO. Min pointe var nærmere at Nvidia ikk gør nok for at sænke strømforbruget på deres kort. Jeg har ikk sagt noget om at de sku yde mindre. Ved da godt at der sidder en masse derude der bare SKAL ha det vildeste selvom det i virkeligheden er totalt ubrugeligt og ekstremt dyrt. Det er altså muligt at lave hurtigere kort med lavere strømforbrug.
--
Home is where you can say whatever you want .... nobody is listening anyway.
#6
crucial-kid
Nyhedsredaktør
05-02-2008 15:54

Rapporter til Admin
#5 Gør NVIDIA ikke nok for det? NVIDIA har i fem GPU generationer haft det bedste strøm/ydelses forhold for top kortet, og det gør sig også gældende for de seneste opdateringer. G92 har et klart bedre ydelse/strøm forhold end ATI's RV670, og uden at kende noget til ATI's RV770 topkort eller for den sags skyld det endelige strømforbrug for GT200, kan vi på ingen måde lave en sammenligning af ovenstående forventede TDP og en eventuel ATI chip. Det kan meget vel være, at ATI's RV770 top kort bruger mindre strøm end GT200, men hvem siger, at det dermed har et bedre strøm/ydelses forhold?
--
Mvh. Thomas Christensen
#7
Aln
HOL Administrator
05-02-2008 16:20

Rapporter til Admin
#4 - Du tager fejl, mere ydelse behøver ikke være lig med højere strømforbrug. Se blot, hvor flot CPU producenterne har reduceret strømforbruget over de senere år, alt imens de har forbedret ydelsen betragteligt. Det samme burde ske på GPU fronten, og der er teknisk set ikke noget i vejen for det. Faktum er, at et strømslugende design er lig et dårligt design, men GPU producenterne ser desværre stort på det. Så i deres higen efter at komme først på markedet, så kommer strømforbruget i anden række, og vi ser derfor denne meget uheldige tendens...
--
Allan Nielsen | Administrator / Artikel-Redaktør | HardwareOnline.dk
#8
KCheKRiK
Mega Supporter
05-02-2008 16:27

Rapporter til Admin
Håber bare de har lavt strømforbrug i idle mode. Har ikke brug for mit gfx hiver 200W ud af stikket når jeg læser hol. Når det tilgengæld skal yde skal den bare køre max ydelse. Men derfor går jeg alligevel ind for det bedste for miljøet.
--
|P4 3.0 GHz|1.5 GB PC3200 Dual-DDR|Leadtek 7600GT 256 MB|Seagate 200 GB 8 MB Cache ATA100|Dell 2005FPW|
#9
Aln
HOL Administrator
05-02-2008 16:51

Rapporter til Admin
#6 - NEJ, nVidia gør ikke nok for det! Det kan godt være de er bedre end konkurrenterne på ydelse vs. strømforbrug, men det gør dem ikke gode. Det betyder bare at de andre er endnu dårligere... 250W er virkelig helt ude i hampen, uanset hvor meget ydelse de så presser ud af det.
--
Allan Nielsen | Administrator / Artikel-Redaktør | HardwareOnline.dk
#10
Aura
Mega Supporter
05-02-2008 16:55

Rapporter til Admin
#6 G92 har et klart bedre ydelse/strøm forhold end ATI's RV670 Det var jeg ikk klar over. Ka du linke til noget info? Dog vil jeg stadig mene at der ikk bliver gjort nok (også fra ATI's side åbenbart). Som #7 også siger er hastigheden på CPU'er steget samtidig med at strømforbruget er faldet. Det har været tendensen på CPU fronten i lang tid efterhånden.
--
Home is where you can say whatever you want .... nobody is listening anyway.
#11
PoloDude
Elite Nørd
05-02-2008 18:21

Rapporter til Admin
#10 http://www.atomicmpc.com.au[...] 8800GT yder lidt mere end HD3870 og Load forbruget på 8800GT er lidt lavere end på HD3870. Der hvor HD3870 ser godt ud, er ved idle hvor fx min PC tilbringer det meste af tiden (surfen på Hol.dk)
--
E4300(oc)3Ghz med Gemin2, GigaByte 965P-DS3, HD3870, 3 giga PC6400 TwinMos Twister.
#12
Aura
Mega Supporter
05-02-2008 18:47

Rapporter til Admin
#11 Der står da: 8800 GTS - 51W-113W (512MB G92) HD 3870 - 19W-25W-81W Så er HD3870 da meget overlegent mht. strømforbrug. Er der noget jeg har misforstået?
--
Home is where you can say whatever you want .... nobody is listening anyway.
#13
Valomanden
Semi Supporter
06-02-2008 08:51

Rapporter til Admin
Igen er diskussionen omkring GPUer og CPUer i gang, hvor der fuldstændig hæmningsløst sammenlignes på kryds og tværs. DET ER IKKE DET SAMME. Forskellen i levetid af generationer for CPUer og GPUer er tæt på en faktor 3. Den ene er en ren arbejdshest sammenlignet med den anden. og listen kunne fortsætte... Hvis i er interesseret i at redde miljøjet, så glem alt om det største gfx og køb en af de mindre udgaver. Man har ingen ret til at være sur over at skulle skifte strømforsyning, hvis man ikke engang gider sætte sig ind i hvad det er man køber. Det svarer til folk som køber en mac og argumentere med at mac er fuldstændig overlegen PC: "Jeg købte den pga. designet... PC stinker!".
--
Forever Supporter Aspirant.
#14
Narkhaj
Megabruger
06-02-2008 10:19

Rapporter til Admin
250W er jo fyldstændigt sindsygt. Gad vide hvad greenpeace siger til det ;-) Troede vi skulle spare på co2 udledningen...
--
Portal to best nettv http://www.nettv.cc[...]
#15
Aln
HOL Administrator
06-02-2008 10:43

Rapporter til Admin
#13 - nu tænker du levetid, og dermed økonomi. Mit argument går på at der teknisk set ikke er belæg for at GPU'er absolut skal bruge mere strøm for at yde bedre. Og derfor er det absolut rimeligt at sammenligne med udviklingen indenfor CPU'er, uanset dine argumenter. Din Mac sammenligning forstår jeg ikke, så den vil jeg undlade at kommentere på...
--
Allan Nielsen | Administrator / Artikel-Redaktør | HardwareOnline.dk
#16
nikolajp
Supporter Aspirant
06-02-2008 11:56

Rapporter til Admin
#15 Det han vel mener, er at det er forbrugerens egen skyld, at disse kort sælger. Vi lever jo i en kapitalistisk verden med udbud og efterspørgsel, og her spiller strømforbruget åbenbart ikke det store mht. at mindske efterspørgslen. Begge grafikkort producenter bruger ret meget strøm i deres kort, så der er ikke et reelt valg forbrugeren kan gøre. Rent moralsk burde de fokusere mere på strøm forbruget, men de får ikke flere penge af det. CPU producenterne laver KUN strøm-besparende CPU'er fordi varmen er et problem og mindre varme vil gøre dem istand til at lave hurtigere CPU'er og derved flere penge. CPU producenterne er altså ikke mere hellige end GPU producenter - de er bare tvunget til det. CPU'er kører med max 60 grader, mens GPU'er åbenbart kan rulle videre på 80 grader eller mere. Man kunne godt ønske, at strømforbruget blev sænket mere, men det bliver det aldrig. Det vil altid ligge højt (tæt på hvor folk kan acceptere det), fordi de sætter mhz på chip og ram helt op til det kortet kan trække og tilføjer flere transistorer. Det bliver de nødt til for at være førende - og i sidste ende er det os der skaber efterpørgslen og driver dem til det.
--
#17
nikolajp
Supporter Aspirant
06-02-2008 11:58

Rapporter til Admin
Men hvis flere har samme holdning som dig, og bruger sine penge efter deres overbevisning, så rykker det noget. Jeg har da kigget meget på strømforbruget (specielt idle niveau), da jeg selv betaler min strøm-regning, og det kan faktisk løbe meget op.
--
#18
Aln
HOL Administrator
06-02-2008 12:06

Rapporter til Admin
#16 - jeg synes ikke de totalt kan fraskrive sig deres moralske ansvar, blot fordi der er købere til deres varer. Men du har da ret i at vi som forbrugere også har et stort ansvar, men jeg er sikker på at mange gerne ville give lidt ekstra for et grafikkort, hvis der fandtes et alternativ der ydedede godt men havde lavere strømforbrug. Det ville jeg, i hvert tilfælde. Det er iøvrigt ikke kun for at holde varmen nede, at de laver strømsparende CPU'er. En anden stor gevinst er længere batteritid på bærbare PC'er. Endvidere burde der stilles større krav fra OEM kunder, der virkelig kan lægge pres på både CPU og GPU producenterne for at nedbringe strømforbruget.
--
Allan Nielsen | Administrator / Artikel-Redaktør | HardwareOnline.dk
--
Sidst redigeret
#19
nikolajp
Supporter Aspirant
06-02-2008 12:17

Rapporter til Admin
#18 Jep, det har du ret i. Men stadig er CPU producenterne drevet af hvor mange penge de kan tjene. Sådan er det bare og sådan er næsten ALLE virksomheder. Mange virksomheder har en social/miljø profil, men det er ofte fordi det er god PR og mindsker chancen for noget pludseligt skidt PR i medier. Nogle få virksomheder har nogle deciderede moralske værdier de stræber efter (og det er da fint), men igen er det ofte virksomheder som klarer sig sikkert og godt. Hvis krisen kraser (eller der er stor konkurrence), så droppes de gode intentioner (dem som ikke tjener penge) meget hurtigt. Og sådan er vores samfund bare. Vi har så regeringen til at udstede love, hvis griskheden for alvor går i selvsving og ødelægger vores planet, helbred eller samfund. Men det sker nok ikke for grafikkort. I min post #18 skriver jeg, at jeg allerede har købt efter strømforbruget. Det tror jeg mange faktisk gør lige nu, da f.eks. SLI er den store strømsluger, men (efter min viden) ikke købes af særligt mange. Hvis ATI/AMD lancerede et kort det brugte halvt så meget strøm med min. 90-95% ydelse af nVidias kort, så købte jeg helt sikkert det. OG jeg holder mig desuden også fra GX2, da de også sluger alt for meget.
--
#20
Valomanden
Semi Supporter
06-02-2008 14:32

Rapporter til Admin
#18 Det er direkte naivt, at tro man både kan få ydelse og energibesparende GPUer. Det du leder efter er et teknologisk produktionsskift ikke et redesign af arkitekturen. Medmindre at du kan hive et teknologisk mirakel op af hatten, så har det lange udsigter mht. nedbringelse af strømforbrug. Misforstå mig ikke og tro at jeg elsker at svine med strømforbruget og fylde tanken på min oversize SUV hver dag, er helt og addeles enig med dig i at man skal finde en måde at få reduceret strømforbruget på. Der skal satses på forskning for at gøre dette muligt, man kan ikke klandre gfx producenterne for gøre deres job og følge markedet, kun forbrugerne.
--
Forever Supporter Aspirant.
#21
Aln
HOL Administrator
06-02-2008 15:29

Rapporter til Admin
#20, igen må jeg påpege, at der teknisk set absolut ikke er noget galt for at man "både kan få ydelse og energibesparende GPUer." Og ja, det jeg leder efter er lige præcis et redesign af arkitekturen. Og ja, det koster knaster - over tid. Men det jeg vil frem til er, at producenterne KAN tage skridtet og bruge mere tid på design af strømbesparende produkter. Regningen kan de jo passende sende til forbrugerne, ikke sandt? Jeg kan ikke forstå, hvorfor du blankt fritager producenterne for ansvar, blot fordi de kan sælge deres varer som tingene kører nu. Jeg synes det er snæversynet at holde på at "det kan ikke lade sig gøre, for producenterne skal tjene penge, end of discussion". Jeg mener helt klart at producenterne har deres del af skylden. Selvfølgelig kan det lade sig gøre at få mere strømbesparende produkter, men det kræver velvilje i alle led i kæden. Og du kan ikke påstå at producenterne her lever op til deres del, for det gør de så absolut ikke - og det er denne nyhed jo netop et eksempel på. Hvis du læste mit tidligere indlæg ville du også se at jeg bestemt også klandrer forbrugerne, især OEM kunderne, som må være dét led der for alvor kunne gøre sig gældende, og lægge pres på producenterne. Bare ærgerligt at det skal være nødvendigt.
--
Allan Nielsen | Administrator / Artikel-Redaktør | HardwareOnline.dk
#22
crucial-kid
Nyhedsredaktør
06-02-2008 15:37

Rapporter til Admin
#7 "Se blot, hvor flot CPU producenterne har reduceret strømforbruget over de senere år, alt imens de har forbedret ydelsen betragteligt." Det er jeg på ingen måde enig i. Tag nu det seneste Intel skifte fra 65nm til 45nm. Har Intel sænket strømforbruget med 45nm skiftet? Mange vil måske tænke ja, men svaret er et bragende nej. Intel fortsætter i nøjagtig samme kategorier som tidligere, og topmodellerne har fortsat en TDP på 130 watt ligeså sine forgængere. De har et bedre forhold imellem ydelse og strømforbrug ja, men Intel laver processorer til de samme kategorier som de sidste 2-3 år. Ser vi to år tilbage, er billedet stort set uændret, og prisgrupperne brugte stort set samme mængde strøm. Ser vi i toppen af markedet, har der endda været et lille skifte op, så desktop topmodellen nu har en højere officiel TDP end dengang. Ser vi derimod 3-4 år tilbage, er billedet endnu værre, da de dengang ikke kom over 100 watt i TDP. Tænk på den skræmmende Prescott bedre kendt som Preshot. Intel’s 45nm Quad kerne topmodel bruger lige under 30% mere strøm (103 vs. 130 watt TDP) På notebook fronten er billedet næsten identisk. Der har været et par forbedringer i bunden, men både AMD og Intel laver stadig processorer til nøjagtig de samme kategorier som de sidste mange år, da det er markedets forhold – dvs. de konkurrere om at kaste mest mulig ydelse ind i bestemme strømkategorier, ikke på at ændre strømkategorierne eller sænke strømforbruget. Bottomline er, at selvom der er meget fokus på effektivitet med ydelse/strøm som den bærende faktor, har vi ikke set nogen som helst ændring på desktop markedet imod lavere strømkategorier. De processorer vi køber, bruger nøjagtig ligeså meget strøm som for 1-2 år siden, og for manges vedkommende mere strøm end 3-4 tilbage. AMD og Intel kan vinde markedsandele og konkurrere på ydelse/strøm parameteret, men de kæmper fortsat om de samme strømkategorier som de sidste mange år.
--
Mvh. Thomas Christensen
#23
InFerNo
Nørd
06-02-2008 15:37

Rapporter til Admin
engang var 400w helt uhørt meget for en strømforsning. i dag er det standard, og helt gerne større. i dag er 750-1000w helt uhørt stort, emn om et par år er det det normale. under, kan simpelthen ikke gøre det. mærkelig udvikling der sker syntes jeg..
--
Bare fordi man er n00b behøver man ikke at skildte med det.! www.struck.dk[...] billige MC/scooter samt reperation
#24
Elrantiri
Gæst
06-02-2008 17:04

Rapporter til Admin
Utroligt med de bedrevidende "ingeniører" vi har herinde som kører 100% på den holdning at der simpelthen bare er bedre løsninger på problemet, som producenterne helt sikkert kan gøre brug af. Kan det ikke tænkes at de faktisk gør en del for at gøre grafikkortene så effektive som muligt? Det er da klart for de fleste at ydelsen har ekstremt meget at sige for markedet, og det er da helt sikkert MULIGT, at der kan laves forbedringer, men lad dog være med at sidde og være så 100% sikker på, at det er muligheder som firmaerne kan gøre brug af - eller start jeres eget firma og gør det bedre hvis det er så nemt? Utroligt at folk er så bedrevidende omkring en af de hurtigst udviklende produkter man kan købe.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#25
Valomanden
Semi Supporter
06-02-2008 17:32

Rapporter til Admin
#24 Hvad er der nu galt med ingeniøre? Det er faktisk et relativt simpelt emne, så alle input er velkomne. Man behøver faktisk ikke en ph.D. for at kunne forstå at flere transistore kræver mere effekt, samt højere clockfrekvenser kræver det samme. Dette er en diskussion som omhandler folk betænkligheder ved at have en stationær PC som bruger mere effekt end deres microbølgeovn (der kan få en kop vand til at koge på under 1 minut).
--
Forever Supporter Aspirant.
#26
Aln
HOL Administrator
06-02-2008 17:41

Rapporter til Admin
#24 - Jamen det er da godt ramt, for jeg er netop ingeniør indenfor elektro og IT. Og derfor kan jeg netop være 100% sikker på at der kan gøres mere for at sænke strømforbruget, end der gøres idag. Er det svar nok? :-) eller start jeres eget firma og gør det bedre hvis det er så nemt? Utroligt, hvorfor folk føler det nødvendigt at forsvare producenterne gang på gang. Hvor har jeg sagt at det er "så nemt"? Jeg har ikke sagt at det er nemt, men jeg har sagt at det kan gøres væsentligt bedre, hvis der ellers var vilje til det. Det er der tydeligvis ikke, og det synes jeg helt ærligt er en skam.
--
Allan Nielsen | Administrator / Artikel-Redaktør | HardwareOnline.dk
--
Sidst redigeret
#27
Aln
HOL Administrator
06-02-2008 17:47

Rapporter til Admin
#22 Jeg var vist ikke præcis nok i min tidligere formulering, tillad mig at rette op på det her. Du har ret i at mange af de nye CPU modeller stadig har et højt strømforbrug, ligesom de foregående modeller også havde. Men der er lavet strømsparende modeller med samme ydelse, men med lavere strømforbrug. Dét eksempel burde være nok til at vise, at det er teknisk muligt at hæve ydelsen og samtidig sænke strømforbruget. Det er netop dét argument jeg vil frem til, jeg brugte bare CPU'er som eksempel - desværre uden at være præcis nok. Egentlig var jeg ikke ude efter at starte en diskussion omkring CPU'ers strømforbrug, eftersom nyheden omhandler GPU'er.
--
Allan Nielsen | Administrator / Artikel-Redaktør | HardwareOnline.dk
#28
Elrantiri
Gæst
06-02-2008 18:47

Rapporter til Admin
#25 Har jeg skrevet der er noget galt med ingeniører? Jeg kan bare ikke se idéen i at svine firmaer for åbenbart at gøre arbejdet halvt, når der højst sandsynligt er mere bag det - hvis det var så enkelt som du åbenbart mener det er, så havde de jo nok gjort noget ved det. Nej, man behøver ikke en Phd for at kunne regne sådan noget ud, men var det så ikke en idé at lade det være som det er? Der skal åbenbart flere transitorer til for at få højere ydelse, og flere transistorer kræver mere strøm, og så er det vel bare det? (Jeg ved godt at der kan laves gode og dårlige design, optimeringer m.m., men igen, hvorfor er det I automatisk går ud fra, at det gør de ikke ret meget i?) "Dette er en diskussion som omhandler folk betænkligheder ved at have en stationær PC som bruger mere effekt end deres microbølgeovn (der kan få en kop vand til at koge på under 1 minut). " Det er det da ikke? Det har da netop bevæget sig over til en diskussion om hvorvidt producenterne kan gøre det bedre end de gør nu. #26 Jamen tillykke med det. Pointen er da ikke om der kan gøres noget rent teoretisk, men i stedet om det kan lade sig gøre i praksis og rent økonomisk. Og ja, kom da endelig og sig "Du kan da ikke bare udelukke at det er fordi de ikke har ressourcer til at gøre det, eller at det ikke er muligt, FOR DET ER DET" for det er helt fint at du slår manglende argumenter væk med... INGEN argumenter? Det skulle da lige være "Det ved jeg bare, så sådan er det". Så nej, det er ikke svar nok. Og nej, jeg går ikke absolut ind og beskytter producenten, men prøv da at se på problemet med en højere realitetssans - det er et marked med konkurrence, med et produkt hvor strøm har stor indflydelse på produktet, støj fra køling m.m., at det umuligt kan være et punkt de enten har overset eller har valgt ikke at gøre noget ved. #27 Så vidt jeg ved findes der da ikke Core Duo 2 3Ghz CPU'er med lavere strømforbrug end den der ligger på EDB-priser, men der må du da godt finde et guldkorn frem. Kan heller ikke se hvorfor du overhovedet kan bruge CPU'er som eksempel - ydelsesstigningerne for grafikkort er da langt højere end de er for CPU'er?
--
Gæstebruger, opret dit eget login og få din egen signatur.
#29
Elrantiri
Gæst
06-02-2008 19:35

Rapporter til Admin
Noget andet, er der lavet et 8800 til bærbare computere/med lavere strømforbrug? For man kan sagtens argumentere for, at de burde gøre deres bærbare grafikkort tilgængelige på det stationære marked.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#30
nikolajp
Supporter Aspirant
07-02-2008 11:38

Rapporter til Admin
#29 De laver strøm-sparende 3D grafikkort til bærbare, men de kan ikke følge med dem til stationære. De har jo nok vurderet, at strøm-besparelse ikke er noget folk går op i, hvis det forringer ydelsen. En anden ting er også, at folk gerne vil betale lidt ekstra (i strøm) når de spiller. Grafikkort bruger jo ofte meget mindre i idle. Sådan har jeg det selv ihvertfald. Og bruger man 2000 kr. på et grafikkort cirka hvert år, så betyder strøm-regningen måske ikke så meget. Faktum er, at forbrugeren ikke bekymrer sig så meget om strømforbruget, så længe det er "rimeligt". Og grænsen for "rimeligt" rykker sig langsomt opad. Personligt tror jeg, at der går lang tid før 1000W PSU'er er standard. Der er jo også klimaet at tænke på, og i nogle lande (Danmark) er strøm ret dyrt.
--
#31
Neurobrain
Gæst
07-02-2008 12:37

Rapporter til Admin
Problemet er, at der sidder mange små drenge rundt omkring som bor hjemme hos mor og far og derfor er ligeglade, hvad deres gear sluger af strøm:)
--
Gæstebruger, opret dit eget login og få din egen signatur.
#32
crucial-kid
Nyhedsredaktør
07-02-2008 12:49

Rapporter til Admin
#23 InFerNo "i dag er 750-1000w helt uhørt stort, emn om et par år er det det normale. under, kan simpelthen ikke gøre det." Der vil jeg så godt tillade mig at være uenig. Jeg tror ikke, at 1000 watt strømforsyninger bliver almindelige indenfor de næste 3-5 år. Det vil blive almindeligt i super duper 2xGFX + Extreme CPU high end maskinerne, som ingen alligevel har, når det kommer til stykket, men jeg kan på ingen måde se nogen generel udvikling væk fra de 380-580 watt som standard. Hvis man har fulgt markedet, vil man have set et stigende gennemsnit, men det er primært drevet af toppen, hvor bunden kun har rykket sig i små skridt, og faktisk næsten stået stille det sidste 1-1½ år. Selv top PSU producenterne har stadig samme watt rating i bunden i deres premium serier som for 2 år siden. Vi vil klart se flere 1000+ watt strømforsyninger, og flere som tager hoppet fra 400-500 watt imod 600-800+ gruppen, men det er drevet af deres spring fra single til dual grafikkort samt hoppet op i priskategorierne indenfor samme, og ikke af et generelt skifte imod dual grafikkort eller high end CPU’er. Det dækker altså over et skifte indenfor en bestemt demografi, og ikke CPU eller grafikkort udviklingen som sådan. #27 Aln Jeg var godt klar over din pointe, og jeg er som sådan enig i, at det er vejen frem. Jeg er dog ikke enig i, at grafikkort producenterne ikke går så meget op i det som CPU producenterne. Både ATI og NVIDIA lavede godt hjulpet på vej af die schrinks grafikkort med samme ydelse, men lavere strømforbrug i RV670 + G92. ATI havde en elendig strømstyring i forgængeren, så de forbedrede denne i forløbet, hvor NVIDIA ikke rigtig berørte denne del grundet udgangspunktet. Der er derimod den markante forskel, at de få energy saving processorer CPU producenterne har, og specielt AMD da de har flest på desktop markedet, bliver solgt til et helt andet segment. Dem som køber disse, køber ikke et add-in grafikkort, men sætter det sammen med en IGP løsning. Der er ikke rigtig nogen værdi for ATI og NVIDIA i at sælge et Radeon HD 2600XT power saving grafikkort til prisen for et 3850/3870, da det er grundlæggende imod ideen om et add-in grafikkort. #29 Det gør de jo for så vidt også. Mobile chips bliver jo fra tid til anden brugt i desktop kort, og nogle gange også den anden vej. Typisk er en mobil chip jo anden generation af en given chip – dvs. de venter til der kommer et die schink de kan benytte, og laver i den forbindelse mindre rettelser. Geforce 8800M GTS benytter da mig bekendt samme G92 kerne som 8800GT og GTS-512?
--
Mvh. Thomas Christensen
#33
Elrantiri
Gæst
07-02-2008 15:47

Rapporter til Admin
#30 "De laver strøm-sparende 3D grafikkort til bærbare, men de kan ikke følge med dem til stationære. De har jo nok vurderet, at strøm-besparelse ikke er noget folk går op i, hvis det forringer ydelsen. " Nej, men så er pointen omkring hvor vidt GFX-producenterne gør hvad de kan vel også bevist - hvis de virkelig kunne lave de gode kort med lavt strømforbrug ville det give pote i laptop-industrien. #30 "En anden ting er også, at folk gerne vil betale lidt ekstra (i strøm) når de spiller. Grafikkort bruger jo ofte meget mindre i idle. Sådan har jeg det selv ihvertfald. Og bruger man 2000 kr. på et grafikkort cirka hvert år, så betyder strøm-regningen måske ikke så meget. " Lad være med at tale på for "folket" - jeg vil netop vove at påstå, at der er mange som får en stor elregning - især hvis der er mere end 1 af disse gamer-computere i huset, 2 middelstore maskiner bruger vel 400 watt hver, hvis de kører 5 timer om dagen er det vel cirka 4kWh til 1 eller 1,5 krone stykket, det er 4-6 kroner om dagen, og bliver til en 1200-1800 kroner om året (600-900 per pc) hvis det fortsætter sådan. Det er altså også en del penge. Om 5 timer foran computeren er meget ved jeg ikke, det er vel det et raid i WoW tager, eller en 4-5 DotA'er, så mon ikke der er en del gamere der kommer derop omkring. "Faktum er, at forbrugeren ikke bekymrer sig så meget om strømforbruget, så længe det er "rimeligt". Og grænsen for "rimeligt" rykker sig langsomt opad. Personligt tror jeg, at der går lang tid før 1000W PSU'er er standard. Der er jo også klimaet at tænke på, og i nogle lande (Danmark) er strøm ret dyrt. " Har du nogensinde set en elregning? Og igen udgiver du dig for at være den almene forbruger, jeg tror ikke alle tager så let på det som du gør. #31 Jeg tror faktisk ikke børnene er helt så ligeglade. Jeg tænkte heller ikke på det dengang jeg boede derhjemme indtil jeg fik at vide hvad det faktisk koster - hvis børnene ikke ved hvad deres comp koster i strøm, så tænker de nok ikke over det. #32 Muligvis, jeg aner det ikke. Men man kan vel se det som et bevis på at det kan gøres bedre, men at ydelsen ikke nødvendigvis følger 100% med, samt at det tager en del længere tid - og at det derfor ikke er praktisk/økonomisk muligt for producenterne at holde sig til disse andengenerations chips, som er mere strømbesparende?
--
Gæstebruger, opret dit eget login og få din egen signatur.
#34
nikolajp
Supporter Aspirant
07-02-2008 16:46

Rapporter til Admin
"Nej, men så er pointen omkring hvor vidt GFX-producenterne gør hvad de kan vel også bevist - hvis de virkelig kunne lave de gode kort med lavt strømforbrug ville det give pote i laptop-industrien." Præcis. Der er en økonomisk gulrerod, og alligevel har de ikke droppet strøm-forbruget markant. Det tyder på, at det ikke er så ligetil. Og som crucial-kif skriver, så er bærbare grafikkort ofte noget anden-generations, der bygger på tidligere erfaringer, men med die-shrink. Det kan man jo ikke springe direkte til. "Lad være med at tale på for "folket" - jeg vil netop vove at påstå, at der er mange som får en stor elregning" Jamen, jeg er enig med dig. Og som jeg faktisk skrev tidligere så tænker jeg faktisk over strømforbruget i CPU og GPU valg. Det gør de fleste af mine bekendte ikke. Og jeg forbeholder mig retten til at TRO (udfra mine erfaringer), at mange ikke tænker så meget over strømregningen når der købes computer. Og efter min TRO, så ser "folk" anderledes på at brænde strøm af når man spiller (og derved bruger maskinen) ift. altid (mens den er idle). Det samme gør sig gældende med støvsuger og mikroovne hvor høj watt er godt - så længe det bruges så kan vi godt brænde lidt watt af, da vi så for en god effekt. Men at den brænder 200watt af, mens man checker mail er lidt skidt. "Har du nogensinde set en elregning? Og igen udgiver du dig for at være den almene forbruger, jeg tror ikke alle tager så let på det som du gør." Jeg betaler min egen elregning - så jo tak, den har jeg set. Og som nævnt: jeg tager ikke let på det. Jeg er bare realist og som også nævnt, så er der ikke et alternativ. Vil du game med de nyere grafikkort, så må man betale for det. Og jeg har gjort meget for at undersøge, hvor meget mit nuværende grafikkort bruger i idle. Hvor mange procent der køber grafikkort tror du undersøger dette? Ikke mange. Det kan godt være, at folk tænker lidt over strømforbrug i købs-situationen, men hele pointen er jo, at det der tæller mest (og faktisk over-trumfer de nervøse strømforbrugs tanker) er den gode ydelse.
--
#35
heinrich
Monsterbruger
07-02-2008 18:49

Rapporter til Admin
men under alle omstændighedder, så er de jo ved at være så langt oppe i effekt som deres kølere kan tage... selvfølgelig kan de bare lave 7 slots kølere, men der er der nok ikke så mange der vil købe... så med mindre der sker noget stort inden for køler teknik, så stagnere effekt forbruget jo nok.
--
#36
nikolajp
Supporter Aspirant
07-02-2008 20:46

Rapporter til Admin
#35 Ja, det er rigtigt. De bliver efterhånden pænt varme, så vi ser nok ikke nogen fortsat kraftig øgning af watt. Men vi kommer heller ikke til at se en nedgang.
--
#37
RMJ
Gæst
07-02-2008 23:19

Rapporter til Admin
Alt for sygt :P synes ellers mit 8800gtx bruger rigeligt :P og har da lige skiftet alle min pærer i huset til sparepære for at få strømregningen ned :P kan godt være de skal overveje en anden fremgangs måde..
--
Gæstebruger, opret dit eget login og få din egen signatur.
#38
Elrantiri
Gæst
08-02-2008 03:01

Rapporter til Admin
#34 Fair nok, det virkede bare som om at du VIDSTE, at folket generelt et ligeglade med deres elregninger, og det tror jeg de færreste ved nok om Hr. og Fru Danmark til at vide. "Og jeg har gjort meget for at undersøge, hvor meget mit nuværende grafikkort bruger i idle. Hvor mange procent der køber grafikkort tror du undersøger dette? Ikke mange. " Som jeg skrev i #33, så er jeg enig med dig her - jeg tror ikke ret mange børn og unge (som vel er den aldersgruppe hvor der er flest gamere?) ved hvor dyrt det er i strøm, og derfor gider de formentlig ikke at tjekke det. #35 De kan altid gå over til vandkøling som standard-køler, det vil give dem mulighed for at smide flere Watt på grafikkortene.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#39
heinrich
Monsterbruger
08-02-2008 09:15

Rapporter til Admin
#38 ja, det kan de gøre på nogle få top kort, men der er for få mennesker (selv blands euntusiaster) der vil have vand i maskinen, til at jeg tror det ville kunne betale sig for dem.
--
#40
nikolajp
Supporter Aspirant
08-02-2008 10:02

Rapporter til Admin
#39 Ja, og vand er også noget mekanisk gejl, som jeg går udfra har en meget højere fejl-rate end normale blæsere (og derved en lind strøm af RMA sager). Desuden skal varmen også ud af kabinettet ved vandkøling, før det batter og der skal bruges en større pulje med vand der roterer. En add-on vandkøling er ikke særlig effektiv ift. en større vandkøling med radiator udenfor kabinet. Og ikke super meget bedre end god luftkøling. Så det er nok stadig et niche-produkt, som case-moddere eller folk med for mange penge (og for lidt hjerne) vil købe.
--
#41
Elrantiri
Gæst
08-02-2008 11:54

Rapporter til Admin
#39 Det kommer meget an på prisen - og hvis alternativet er 2-4 slots kølere, så tror jeg nok vand skal slå igennem. Der findes jo de mindre vandkølingssytemer, som er lukkede fra starten af, så ejerne ikke skal døje med at sætte det sammen og tjekke for lækage, og så er det ikke særlig besværligt.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#42
nikolajp
Supporter Aspirant
08-02-2008 12:28

Rapporter til Admin
#41 enig, men kun i highend (som det er nu). Det bliver aldrig mainstream at installere vandkøling med grafikkortet. OEM forhandlere vil helt sikkert også holde sig tilbage mht. at bruge vand-køling i deres produkter. Pga. pris og RMA. Jeg tror ikke du kan lave billig vandkøling, som samtidig er pålidelig og ikke går meget hurtigere i stykker ift. normale blæsere. Mainstream kort sælges jo til 600-1500 kr. og vædske-køling vil ikke kunne betale sig.
--
#43
Claus
Gæst
10-02-2008 03:13

Rapporter til Admin
AMD/ATI formåede at sætte strømforforuget ned til det halve med stort set samme ydelse, da de lavede 3870 som afløser for 2900. Det er da rimeligt godt gået :) MEN, 250W til grafik er ALT for meget, så jeg er nok ikke lige i nVidias målgruppe ;)
--
Gæstebruger, opret dit eget login og få din egen signatur.
#44
Eeyore
Monster Supporter
11-02-2008 11:29

Rapporter til Admin
Producenterne gør langt fra alt hvad de kan, men de er drevet af nødvendigheden af indtjening, så man kan vel ikke bebrejde dem. Derimod kan jeg ikke forstå, at der ikke bliver vedtaget internationale regler for energi frås for elektronisk udstyr. Hvis et sådan blev vedtaget ville det tvinge alle producenter til at "tage sig sammen". Dette vil give en kortvarig opbremsning i deres 6-9 mdr. produktcyklus, men det vil være til betydeligt gavn for miljøet og vores elregning :o). Hvis de hurtigt ville gøre en forskel, kunne de implementere dynamisk underclocking i større grad. Det vil være meget simpelt at gøre og det er effektivt. Jeg bruger selv Riva Tuner til automatisk at underclocke mit 8800GTS når det ikke bruges til 3D. Hvor meget det sparer i strøm ved jeg ikke, men jeg kan måle det når jeg kommer hjem fra arbejde. Jeg kan holde GPU blæseren på ca. 50% lavere rpm ved ca. samme temperatur, så noget giver det da.
--
This is my boot, and yes, it will fit up your ass with the right amount of force!!!
#45
nikolajp
Supporter Aspirant
11-02-2008 12:10

Rapporter til Admin
"Producenterne gør langt fra alt hvad de kan, men de er drevet af nødvendigheden af indtjening, så man kan vel ikke bebrejde dem." Som du selv siger, så er indtjeningen nødvendig. Derfor kan de ikke gøre mere, hvis de skal være konkurrence-dygtige også. Der er altså forskellige opfattelser af "alt hvad de kan", da det måske ville gøre dem sårbare økonomisk. Mht. regler for elektronisk udstyr, så er der jo regler (FCC vistnok). De omhandler vist ikke forbruget af strøm, men det er jo også meget svært at regulere. Det vil være umuligt at lave grænser, som forhindrer nogle produkter i at blive solgt. Man kunne dog godt lave en mærke-ordning. På madvarer skal man skrive hvad produktet indeholder. For mange el-produkter ville det være rart at vide følgende. KWtime pr. dag ved idle KWtime pr. dag ved standby (hvis det har standby) KWtime pr. dag i brug (hvis det har standby) F.eks. på et lille klistermærke. Så kunne man nemt gange med prisen på en KWtime (i det land man nu er i) og finde omkostningen. I Danmark er det cirka 2-1.5 kr. inkl. miljøudgifter osv. Hvis vi forestiller os, at dette grafikkort trækker 100w i idle og 250w i brug, så er det cirka følgende: pr. dag ilde = 2.4KWtime ~ 4 kr. pr. år idle ~ 1570 krr. pr. dag full load = 6KWtime ~ 11 kr. pr. år full load ~ 3940 kr. Det kunne være rart at have på boxen. Specielt i disse tider med CO2 osv. Et skud på et gennemsnitligt normalt dagligt forbrug er nok 5 timer tændt med 1 time gaming. Dvs. 0.65KWtime i dette tilfælde (om dagen) for KUN grafikkortet. Det giver 365 dage * 0.65 KWtime * 1.8 kr. (cirka pris) = 427 kr.
--
#46
nikolajp
Supporter Aspirant
11-02-2008 12:18

Rapporter til Admin
Har du derimod en mere strømsparende GPU der bruger 60watt idle og 120 i load (jeg gætter bare - kender ikke tallene) så bliver det. 365 dage * 0.36 KWtime * 1.8 kr. (cirka pris) = 237 kr. Noget at tænke over. Specielt er det vigtigt at watt-forbrug i idle tilstanden skal skrues ned. Det ville batte seriøst meget.
--
#47
Elrantiri
Gæst
11-02-2008 22:33

Rapporter til Admin
#45 Du har fat i noget, men så alligevel - det kan godt være at det almindelige forbrug ligger på cirka 1 times gaming om dagen, men folk som netop køber de store grafikkort gamer højst sandsynligt mere end det - jeg ville ihvertfald ikke bruge så mange penge på et grafikkort hvis jeg ikke gamede meget.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#48
gæsteren
Gæst
13-02-2008 13:40

Rapporter til Admin
#45 jeg bor i fredericia og skal give ca. 2,6 kr per kilo watt time. Så den der 1,5-2kr holder ikke helt.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#49
gæsteren
Gæst
13-02-2008 13:52

Rapporter til Admin
#46 Så vil jeg bare sige at 60 Watt i idle IKKE er strømbesparende. Og jeg fårstår ikke hvordan du overhovedet kan tænke sådan. Ja det kan godt være at nogle GPUer bruger langt mere end 60 watt i idle, men det gær altså ikke 60 watt til et acceptabelt niveau. Nvidias 8800GT ligger på 50 watt idle og ikke engang den ville jeg kalde strømbesparende. ATI fik tæsket lidt strømbesparelsesmentalitet ind af AMD og deres HD3870 ligger på 25 watt i idle, næsten godt nok. I hvert fald et godt skridt i den rigtige retning fra den katastrofale HD2900...
--
Gæstebruger, opret dit eget login og få din egen signatur.
#50
nikolajp
Supporter Aspirant
13-02-2008 14:07

Rapporter til Admin
#49 Jamen sådan er det altså lige nu. 60W er en ganske gennemsnitlig idle forbrug. Og vi snakker ikke standby her - grafikkortet laver jo rent faktisk noget med at vise 2D på skærmen (men ikke så meget selvf.). De nyere bruger jo op mod 100W i idle såvidt jeg ved, hvilket er vanvittigt. Og vi er enige. Idle forbrug skal helst MEGET mere ned. Men mit eksempel gik på, at vise forskellen i strøm-regning ved at købe et kort som bruger i den lave ende (indenfor grafikkort) til den høje ende. Og her er der mange penge at spare. Så når du køber et GX2, så giver det samtidig en meget højere pris gennem strøm-regning (og selvf. miljø-belastning). Og lige for at pointere - mit indlæg var fyldt med cirka tal, så det er fint i præcisere. Det gennemsnitlige forbrug er nok højere og prisen på KWh højere.
--
#51
gæsteren
Gæst
13-02-2008 14:16

Rapporter til Admin
#50 ja vi er enige, og jeg gør jo sådan set ikke andet end at styrke din pointe :) Det var måske bare lige de 60 watt der kom galt i min hals. Intel og AMD gør et forholdsvis super job med hensyn til idle forbrug og jeg er sikker på at graffikkortproducenterne kan gøre det samme... (inderst inde ønsker jeg bare en 8800GT med
--
Gæstebruger, opret dit eget login og få din egen signatur.
#52
gæsteren
Gæst
13-02-2008 14:19

Rapporter til Admin
under 25 watt idle forbrug men det kan jo være de kommer en dag) Heh, hol.dk indlæg har vist lidt problemer når man bruger de der "mindre end" tegn mellem shift og Z.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#53
Bambi
Gæst
17-05-2008 02:11

Rapporter til Admin
Meget sjovt, 52 kommentarer uden et eneste bud på hvorfor AMD mon købte ATI. Hvis man tænker lidt nærmere over det, er det nokt fordi de netop har planer om at integrere en "low end" gpu ind i selve cpu'en - Dermed vil vi formodentlig se LANGT mindre idle tilstande end idag, samtidig med at AMD får større markedsandele på mainstreammarkedet end idag, tænk lige over det!
--
Gæstebruger, opret dit eget login og få din egen signatur.

Opret svar til nyheden: 250 Watt Single Chip Monster Fra NVIDIA

Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.

Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.

Opret bruger | Login
NYHEDSBREV
Afstemning