Seneste forumindlæg
Køb / Salg
 * Uofficiel Black/White liste V3
Login / opret bruger

Forum \ Hardware \ Generel hardware
Denne tråd er over 6 måneder gammel

Er du sikker på, at du har noget relevant at tilføje?

har en Grafikkort ide

Af Bruger Aspirant Thuriner | 03-08-2005 23:53 | 1066 visninger | 13 svar, hop til seneste
Jeg tænkte på om man ikke godt kunne lave et grafikkort, hvorpå man kunne udskifte sin memory, core osv. lidt ligesom man kan med RAM og CPU på et Mainboard. Ideen er der, men der mangler bare nogle til at oplive den ;) Det ville da være rigtig cool med de forskellige grafik chipset, som man bare kan købe dele til, i stedet for at købe det hele samlet, som man gør i dag. Prøv at se hvor mange muligheder der ville være. I dag er det jo sådan, at man bare skal nævne sin model af grafikkortet og producenten. f.eks. hvis jeg nu nævner Point of View GeForce 6800U, så ved alle, hvad det er for et kort. Hvis vi tager mit eksempel, så går det jo ikke bare at nævne grafikkort model og producent. Nej, der skal nævnes "næsten" det hele: GeForce 6800U 2x 256MB GDDR3 500 Mhz Memory 1.2 GHz Core osv. (Det er bare et eksempel) Se det kunne få alle til at lukke glukkerne op, men det vil desværre også gøre det sværere for den gennemsnitlige bruger, at bestemme sig. Men, tænk på at muligheden er der. NB: Stave- og grammatikfejl er gratis. Nu ikke noget med fuldstændig negative svar ;)
--
| 2,8GHz P4 Northwood | Elixir 2x256MB DDR400 | MSI GeForce FX5500 | 1x20GB Seagate Barracuda | 1x160GB Maxtor DiamondMax 9 Fluid | Logitech MX700 | Acer AL1712m 17" TFT | Creative Audigy |
#1
the688
Guru
03-08-2005 23:57

Rapporter til Admin
Det ville være dyrere i længden at producere kort der skulle overholde en "gammel" standard istedet for at lade udviklingen ske flydende. Printpladen er jo ikke bare "en dum skive" men der hvor der sker en masse action - det er ikke for sjov at de re-designer hele kortet til nye strømkrav, pipelines osv osv når der kommer en ny generation. Teorien er god nok, men i praksis er det dumt IMO. Det ville begrænse udviklingen.
--
P4 3.0 @ 3.6 Ghz, 1GB Dual Corsair TwinX PC4000, Asus P4C800-E-D, Alpha 8942+19db Papst, Radeon X800 Pro @ XT 256mb, Sony G-420. Lian Li P65-B.
#2
JackMan
Gæst
04-08-2005 00:00

Rapporter til Admin
0# Jeg tror også vil det ville være smart så havde de gjort det sådan.. :)
--
Gæstebruger, opret dit eget login og få din egen signatur.
#3
guanomo
Guru
04-08-2005 00:01

Rapporter til Admin
Det ville gøre det utroligt svært og dyrt tror jeg (selvom man faktisk en gang har kunne putte flere ram i et pci) alt skal jo være småt på gfx for at der kan være plads på det og lave små ram slots og ram klodser og en cpu/gpu holder som man kender på cpu på mobo ville være for dyrt og stort efter min mening.
--
handling udløser reaktion, reaktion udløser reflektion, reflektion udløser handling.
#4
Thuriner
Bruger Aspirant
04-08-2005 00:02

Rapporter til Admin
#1 kan ikke se at det skulle begrænse udviklingen. Det vil bare gøre deres grafikkort udvikling mere bred. Det kan man jo også sige om et bundkort. Det er jo også bare en printplade, som man sætter de andre ting i. Det er jo sådanset "næsten" det samme, som at sige, at man heletiden skal købe ny computer og ikke opgradere på sin egen.
--
| 2,8GHz P4 Northwood | Elixir 2x256MB DDR400 | MSI GeForce FX5500 | 1x20GB Seagate Barracuda | 1x160GB Maxtor DiamondMax 9 Fluid | Logitech MX700 | Acer AL1712m 17" TFT | Creative Audigy |
#5
Zilch
Maxi Supporter
04-08-2005 00:02

Rapporter til Admin
#2 du har nok ret, men fed ide #0
--
|--{Skriv hvis du vil sælge din Comp}--| |---------{www.tvedelarsen.dk[...]
#6
CoMzY
Gæst
04-08-2005 00:25

Rapporter til Admin
Der er jo også forskel på et bundkort og etgrafikkort, grafikkortet er jo allerede et indstikskort. og desuden hvis det var fungeret sådan hang vi stadig til bage i slot 1 og socket 7 osv. "for vi jo bare kunne udskifte tingene" der er jo også en grundt til vi for eksempel for nye socket's og nye designs på grafikkort osv.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#7
Gripen90
Guru
04-08-2005 00:30

Rapporter til Admin
Ahemm. sådan noget har jo allerede været forsøgt og det gik slet ikke ! Jeg har et gammelt ATi et eller andet hvor der er ram sockets så man kan sætte flere ram på kortet. Yderligere så synes jeg ikke det er noget smart ide. For det første tvinger man GFX producenterne til kun at kunne køre med een standard, dvs man kan ikke udvikle videre på rammene mht ns og bit. Platine layoutet kan jo ikke fremtidssikres til alle mulige standarder. Tænk fx hvis der var et kort nu hvor man kunne montere ram på lad os sige et GF6600GT, for det første kan man kun køre med 128bit ram, dvs at 256bit ram kan man ikke bruges, yderligere skal rammen være fra samme producent med samme specifikationer, man kan fx ikke blande infion og samsung ram på GFXi allerede her er der det første problem, dvs at der skal være bunker af forskellige ram typer på markedet, både DDR-1 128bit/256bit , GDDR 3 256bit fra alle mulige ram producenter.
--
|Powered by Asus - Fueled by AMD - Ignited by ATi - Remembered by Kingston - Stored by Maxtor - Heard by Creative| http://www.firearmsrights.com[...]
#8
Only1
Supporter Aspirant
04-08-2005 00:37

Rapporter til Admin
Kan godt følge dig :D ville være Extramt nice ;) men tror bare et TI 4200 måske ville koste i start pris måske 3 til 4000 kr... og det ville ikke være nice.. men alige vel... på en måde hvor man så er fri for at overclocke det helt vildt... :) Syndes du sku prøve at gå til nogen producenter med iden :D.... ville da også godt ha et Extern PCI-X til min laptop sådan jeg kan trække villere spil :D hæhæ
--
Få flere besøgen på din hjemmeside http://www.gettraffic.dk[...]
#9
Arnbak
Mega Nørd
04-08-2005 01:17

Rapporter til Admin
Det var meget brugt engang, som de andre siger hvor muligheden var der for at smide mere hukommelse på kortet. Men det vil ikke holde i længden, du skal tænke på hvergang de skifter grafikkort CPU/GPU til en nyere generation. Betyder det enten flere eller færre lag på print pladen. Det vil være for omstændigt og ikke prismæssigt fordelagtigt og lave print plader som passer til det hele. F.eks. hvis det skulle være muligt og lave et generisk print som kan klare f.eks. 3 generationer. Det vil være umuligt, da de nye generationer øger båndbredden, og dermed den mængde af elektroner der skal gennem en given print bane på et givent print kort. Du ved ikke hvorledes båndbredderne på de nye generationer bliver, og derfor er det ikke smart og designe et kort som "understøtter" 2 generationer frem. De fremtidige generationer vil så være begrænsede af din 1 generations båndbredde, hvilket alt andet end lige som #1 skriver begrænser udviklingen.
--
cat /dev/urandom & die http://www.eudp.net[...] http://sikkerhed-faq.dk[...]
#10
Chepard
Giga Supporter
04-08-2005 02:33

Rapporter til Admin
det ville ikke være smart på længere sigt, og prisen ville blive TÅRNhøj! Matrox brugte det på deres ældre kort, man kunne købe ekstra 2/4mb udviddelse til det. MEN problemet var/er simpelt: Hver gpu kræver sine specifikke ram, dette kræver at HVER gfx producent får produceret rammoduler til HVER gpu/gfx de smider på gaden, hvad tror DU prisen vil blive? nok ikke billig, og ydelsen? ikke en dej bedre! et Ti4200 kort yder jo ikke som et 6800gt hvis det fik 256/512mb ram! Så giver de andre fuldstændig ret!
--
Venice3000+ Oc [email protected] 8*290mhz 1:1 3,4,5,8-2.8v
#11
Djin
Monsterbruger
04-08-2005 04:00

Rapporter til Admin
Tjaa.. det eneste der kunne være interessant indenfor det område var, hvis producenten tillod at man opgraderede vcore, altså en slags GPU socket, så man kunne puste nyt liv i sit gamle grafikkort. Hvad er der i vejen for at sætte en CPU (fx A64) på et grafikkort? Ved at en GPU udregner meget parallelt i forhold til en CPU men tænkt nu hvis.
--
"640K ought to be enough for anybody." - Bill Gates, 1981 -
#12
the688
Guru
04-08-2005 07:57

Rapporter til Admin
#4 Stadigvæk - udviklingen i grafikkort går så hurtigt at en "fast type" af printplade eller "grafikkorts-bundkort" ikke vil være en mulig løsning - hver eneste generation af grafikkort vi har set de sidste mange år har krævet store re-designs af printet for at det har kunnet virke optimalt mht ydelse, varme, plads, strømforbrug osv. Uanset hvor "smart" du synes det måtte være, og hvor lidt du kan se at det vil begrænse udviklingen, så ville det ikke desto mindre gøre det. At man pludselig siger til grafikkortsproducenterne "hey, nu er i låst fast på denne type printplade" - det ville give dem meget begrænsede muligheder for at udvikle. Der kommer ikke nye generationer af CPU/bundkort hver 6. måned - men det gør der med grafikkort - og der er store forskelle hvergang - ikke som med visse CPU's hvor "den nye generation" består i en lille ændring af L2-cache, eller andet. Og - eftersom grafikkortsproducenterne stadig vil tjene penge (og gerne så mange som muligt) kan jeg ikke se at dette skulle begrænse deres lyst til at prissætte som de mener er attraktivt - så vi ville ret sikkert ende med at betale godt for det alligevel - og lægger man så de problemer oveni som det vil give med noobs som splitter lortet ad - øgede omkostninger til RMA, længere tid ved fejlsøgning osv, prestigetab pga folk der starter tråde om "hvor dårlige deres et-eller-andet er og hvordan det ikke burde være så svært at sætte dem i" og meget andet. Man ville gøre det mere kompliceret for brugeren, man ville begrænse udviklingen, og man ville ikke nødvendigvis reducere omkostningerne. Tværtimod. En "brug og smid væk" løsning er langt billigst - det er derfor det er den løsning vi har, på grafikkort, TV, DVD-afspillere, osv osv osv.
--
P4 3.0 @ 3.6 Ghz, 1GB Dual Corsair TwinX PC4000, Asus P4C800-E-D, Alpha 8942+19db Papst, Radeon X800 Pro @ XT 256mb, Sony G-420. Lian Li P65-B.
#13
Zack Gem
Moderator
04-08-2005 08:59

Rapporter til Admin
#11 Du kunne også montere en kogt hummer i stedet for en GPU? Giver lige så meget mening. Du kan slet ikke samligne de CPUer og GPUer der sider i de forskellige bundkort og grafikkort. GPUens primære opgave er at "farvelægge" de i forvejen udregnede polygoner CPUen har lavet (også derfor CPU-begrænsningen kan spille ind). Og det er også her man snakker om at en ny, evt "fysisk" processor måske kan overtage det arbejde CPUen laver på det punkt. Altså så CPUen stadig står for alt "logastik" og "overblik", og den fysiske processor laver udformningerne af pholygonerne, og GPUen til sidst farvelægger dem. Det var ret forsimplet, og brugte også nogle udtryk som ville få mange til at vende sig i graven (f.eks. CK, undskyld CK :-), men var lige måden jeg tror giver mening for de fleste. [A] EDIT: Gik lige op for mig at CK ikke er død, og derfor ikke kan vende sig i graven. Men så kan han nok finde på så meget andet :) [/A]
--
---[PWS]Zack Gem--- Overclocking er en sport! Ikke en nødvendighed... www.HardwareOnline.dk[...] moderator

Opret svar til indlægget: har en Grafikkort ide

Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.

Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.

Opret bruger | Login
NYHEDSBREV
Afstemning