Seneste forumindlæg
Køb / Salg
 * Uofficiel Black/White liste V3
Login / opret bruger

Forum \ Hardware \ Grafikkort
Denne tråd er over 6 måneder gammel

Er du sikker på, at du har noget relevant at tilføje?

Vente på Nvidia 3000-serie?

Af Ny på siden Mrberk11 | 03-05-2020 20:02 | 2692 visninger | 33 svar, hop til seneste
Hej med jer, jeg stor i et dilemma, og har brug for fællesskabets hjælp og overvejelser. Jeg har gået rundt i et stykke tid om tanken om at bygge en ny computer her op til sommer. RTX 2070 super har været grafikkortet jeg har sat mig varm på. Jeg var tæt på at bestille et, men efter lidt læsning her i Hardwareonline, er der mange af jer der anbefaler at man væbner sig med tålmodighed. Da den nye 3000-serie kan være lige på trapperne. Spørgsmålene er så: - Vil prisen på 2070 super falde, så det er værd at vente på ny release af 3000-serien? - Hvad regner man ca. med at prisen for 3000-serien vil være? - Eller vil release af 3000-serien, sætte prisen ned på 2080 super, så den måske er værd at købe? - Hvis du selv stod til at skulle bygge en helt ny pc med et budget på max 9500 kr, hvad ville du anbefale at man gjorde? Mvh. ny bruger herinde, som lige er trådt ind i en ny verden. :-)
--
#1
Netsat_99
Ny på siden
03-05-2020 20:20

Rapporter til Admin
Consumer versionen af nvidia 3xxx, vil ikke blive lanceret ved nvidias næste event. Det vil være DC editionen som de vil lancerer første. Consumer versionen af 3xxx vil først komme senere. men naturligvis vil prisen på 2xxx falde, når 3xxx kommer...
--
#2
fruitquam
Junior Supporter
03-05-2020 20:21

Rapporter til Admin
Velkommen til! Kan du vente så vent. Kan du ikke vente så køb nu. Den er desværre ikke så meget længere end det. Ja du kan måske spare penge senere, ja der kan måske komme noget nyt og bedre efter du har købt, men i sidste ende har du haft glæde af den hardware du har købt, ind til det sker. Vil tilfældet at du absolut ikke kan undvære et 3k nvidia kort (når de altså dukker op) så sælg dit 2070S, tag tabet på en 1000-1500kr og køb et nyt kort. Et 2070S vil kunne klare mange år endnu.
--
I like turtles!
--
Sidst redigeret 03-05-2020 20:25
#3
Akasut
Guru
03-05-2020 20:43

Rapporter til Admin
1) Nej egentlig ikke, retailers køber partier i mindre mængder så der er ingen "ups vi har for meget lager og er nødt til at køre super-tilbud". 2) Det ved ingen, enten samme MSRP som 2000-series eller højere er rigtig godt gæt, NVIDIA er ikke gavebod, og AMD kan stadig ikke konkurrere i top-end. 3) Kun på brugtmarkedet vil priserne falde, da de gamle kort ryger væk fra hylderne når 3000 kommer. Spørg dig selv dog, hvor mange vil sælge deres 2080 Super de lige har købt indenfor et års tid? Der er jo lille grund til at opgradere disse. 4) Købe det der passer til ens behov, og hvis det er over budget så spare flere penge op.
--
#4
NiceRag
Nørd Aspirant
03-05-2020 20:45

Rapporter til Admin
#1 er du sikker? for jeg kan stadig finde gamle grafikkort (og CPU'er) som koster ca det samme - nogen gange endda mere - end da de lige kom til salg min egen 2½ år gamle CPU koster mere idag end jeg betalte.. hvilket er mærkeligt når en ny ryzen er bedre, til under halvdelen af prisen :P
--
Sidst redigeret 03-05-2020 20:45
#5
Mrberk11
Ny på siden
03-05-2020 21:24

Rapporter til Admin
Hold da op venner, sikke nogle gode kommentarer i kommer med. Tusind tak fordi i har givet jer tid! Man bliver klogere på det hele. #1 Kan være det er et dumt spørgsmål, men hvad er DC og hvad er consumer versionen? Hvad er der af forskel? :-) #2 De spil jeg spiller mest er CS:GO, Fortnite og TFT. Måler er dog at kunne spille spil som, udkommer indenfor de næste par år. Tror derfor ikke at mit behov fremtidsmæssigt vil ændre sig særlig meget. Én af mine største bekymringer har været at jeg ikke har været "fremtidssikret", men det kan jeg fornemme, at jeg er med et 2070 super kort. Hvis f.eks. der nu kommer et nyt Battlefield spil om 1-2 år, så vil jeg gerne have at det grafikkort jeg køber, kan klare det uden problemer. :-) #3 Tak for den gode kommentar. Min største frygt er som sagt at jeg IKKE bliver fremtidssikret, men det kan jeg fornemme at jeg er med et 2070 super grafikkort. Mit mål er at det skal kunne køre 2-3 år uden at jeg skal ændre det, ligegyldigt hvilket spil der udkommer på markedet. #4 Ja du har nok ret. Tror faktisk heller ikke RTX serien vil miste meget i værdi, da de jo har RTX og så vidt jeg kan se, er et fremragende grafikkort.
--
#6
Netsat_99
Ny på siden
03-05-2020 21:34

Rapporter til Admin
DC er datacenter versionen, som nvidia bruger til deres enterprise kunder. consumer versionen er det grafikkort, som du og jeg kan købe for menneskepenge ;-)
--
#7
fruitquam
Junior Supporter
03-05-2020 21:49

Rapporter til Admin
#5 2070S kan sagtens klare de spil du linker - også fremtidige spil. Umiddelbart skal du købe efter nuværende behov og evt. lidt ift. fremtiden. Der er desværre ingen der ved hvad kravene bliver til at køre et evt. kommende battlefield i fremtiden, så i min optik, er det dumt at bruge tid og energi på at gisne om. Derudover kommer det også an på opløsningen du har tænkt dig at spille i - er det 1080p er mit forsigte bud at 2070S sagtens vil kunne håndtere et nyt battlefield spil. Jeg vil afslutningsvis skrive det samme som jeg indledte med; køb efter dit behov. Når behovet for bedre performance opstår i en fremtidig spil titel så skift grafikkort. Kører selv en Ryzen 3600 m. 2070S på 1440p 144hz display og det spiller bare. Når mit behov for at få lidt flere frames opstår, må jeg vurdere om jeg kan nøjes med at sætte opløsning og grafik ned eller om jeg skal opgradere. Jeg kunne personligt ikke selv vente så har lige købt nyt setup med 2070S, vel vidende om at 3000 er på vej. Jeg ser det som en afskrivning på kortet - skifter jeg kortet om et halvt år har jeg “lejet” mit grafikkort for 250kr om måneden (hvis jeg sælger det 1500kr billigere end jeg købte fx). Det er jo ikke mere end et par (dyre) pizzaer om måneden. Håber det giver mening :-).
--
I like turtles!
--
Sidst redigeret 03-05-2020 21:54
#8
Rasmusbuch98
Juniorbruger
03-05-2020 21:49

Rapporter til Admin
#0 Velkommen hertil! Personligt for mig, så har jeg planlagt at købe et nyt gaming setup her engang til slut Juni. Jeg ville super gerne have 2080 Ti i mit setup. Men nu er der meget der tyder på deres 3000 serie kommer ud engang til September eller frem, så jeg har valgt at, jeg vil købe et 2060 Super i mellem tiden, og så sælger jeg det når den nye 3000 serie kommer ud og køber et 3080Ti (hvis det under 15.000DKK). Min grund er, at jeg slet ikke ser et 2080 Ti kort 9.000-12.000 kroner værd, hvis der går få måneder få du kan købe endnu bedre kort for prisen. Mener jeg så et ''leak'' (ikke verificeret), men der skulle 3060 eller 3070 være mindst lige så godt som 2080 Ti. Prisen falder ikke sådan på Hardware, så du kan nok betale fuld pris lige til dagen før de nye produkter kommer ud. Så jeg vil sige det handler meget om din situation, og hvad du synes er værd. Jeg vil anbefale at købe et midlertidigt kort, for at vente til de nye kort kommer ud, så du er endnu bedre fremtidssikret. Det noget andet hvis du skulle venter 6 måneder til 1 år før de kom ud imo. Du kan evt. købe et 2060 kort eller AMD kort i mellemtiden. Det går alt efter dit budget selvføgelig Af hvad #3 skriver omkring AMD ikke kan konkurrere på top markedet, så har de ikke haft fokus på det før nu, så Nvidia tager nok også føringen igen i år med det aller bedste, da AMD først lige er begyndt, men konkurrence giver bedre priser og bedre produkter også.
--
#9
JakobseNG
Elitebruger
03-05-2020 22:09

Rapporter til Admin
Har vi nogle ide om, hvornår de nye kort kommer ud?
--
1 + 1 = 2 Play the map and map the play?
#10
Rasmusbuch98
Juniorbruger
03-05-2020 22:12

Rapporter til Admin
#9 Der er mange idéer til hvornår, men intet kan bekræftes før Nvidia selv melder ud. Rygterne går på omkring september 2020 og frem til December
--
#11
fruitquam
Junior Supporter
03-05-2020 22:15

Rapporter til Admin
#9 De holder en keynote d. 12 maj - forhåbentligt siger de lidt om deres kommende consumer kort *fingerscrossed*.
--
I like turtles!
#12
Mrberk11
Ny på siden
03-05-2020 22:42

Rapporter til Admin
Tak til alle for jeres svar. Jeg er helt overbevist om ift. mit behov, at det skal være et 2070 super grafikkort. #7 Hvilket setup har du? Hvad har det kostet dig? Ryzen 5 3600 er også det CPU jeg har valgt HVIS jeg vælger at gå videre med RTX 2070 super (højst sandsynligt). :-)
--
#13
fruitquam
Junior Supporter
03-05-2020 23:00

Rapporter til Admin
#12 Ryzen 5 3600 m. Noctua NH-D15 SE AM4 MSI B450 Tomahawk Max 16GB Corsair Vengeance LPX 3200Mhz CL16 512GB Samsung Evo 970 Plus Corsair RM750x 750W Fractal Design Meshify C Gigabyte Gaming OC 2070S Kostede 10.500 tror jeg. Derudover havde jeg en ekstra Samsung 860 1TB SSD liggende som jeg også smed i til spil. Super 1440p setup til prisen. Hvis det er 1080p du spiller i er den måske endda en anelse overkill.
--
I like turtles!
#14
Netsat_99
Ny på siden
03-05-2020 23:06

Rapporter til Admin
#13 eing, dog ville jeg vælge en adata xpg sx8200 pro 1tb nvme over samsung Evo 970..
--
Sidst redigeret 03-05-2020 23:08
#15
fruitquam
Junior Supporter
03-05-2020 23:12

Rapporter til Admin
#14 Jah. Ville bare have et hurtigt og nice boot drev, det kostede lidt mindre end Adata, så var det på lager og jeg havde et ekstra 1TB drev liggende. Men ja det kunne sagtens have givet mening at købe SX8200.
--
I like turtles!
--
Sidst redigeret 03-05-2020 23:13
#16
Dirty Poul
Mega Supporter
04-05-2020 00:44

Rapporter til Admin
#5 Slå koldt vand i blodet. Du skriver, at dit behov lige nu er: "CS:GO, Fortnite og TFT". Til det behov giver det slet ikke mening at betale så mange penge for 2070S. Og det giver slet ikke mening at fremtidssikre når det kommer til grafikkort. Det er nok den komponent i en computer, det giver mindst mening at forsøge at fremtidssikre, da de hele tiden bliver hurtigere og hurtigere. Og efter alt at dømme står vi overfor et af de største hop i ydelse med næste generation. Hvorfor? Fordi AMD endelig vil kunne udfordre Nvidia om titlen som det hurtigste grafikkort med deres kommende RDNA 2 arkitektur. Det tvinger Nvidia til at reagere og sætte det hele et gear op. Hvis de laver samme nummer som de sidste 2 år med RTX, så mister de relevans i alt hvad der koster under 10 000 kr. Og der er sgu ikke mange, der giver over 10 000 for et grafikkort. Det klart billigste valg på den lange bane vil være at købe noget der klarer dit nuværende behov. Her tænker jeg alt fra 1650S til 5700. Længere op ville jeg ikke gå med det behov. Når så det næste Battlefield kommer, så sælger du det gamle grafikkort og køber Nvidias 3000-serie (Ampere) eller AMDs 6000-serie (RDNA 2). Hvor du nu end får mest for pengene. Så vil de 4000 kr. som et 2070S koster række meget længere. Byg en computer til ca. 6000 i stedet for og vent med at bruge det sidste til du får brug for mere ydelse. Det andet kan sgu ikke betale sig, når man tager din spilbehov til efterretning. Bare for at få det på plads, hvilken skærm spiller du på? Snakker vi 1080p eller er opløsningen højere? Er det 60Hz eller snakker vi højere frekvens? Hvilken detajlegrad ønsker du at spille de spil på? Jeg kender ikke TFT, men i CS og Fortnite vælger mange jo at sænke detaljegraden for bedre at kunne se modstanderen. Jeg spørger for at være helt sikker på dit behov, men umiddelbart lyder det til at 2070S er at skyde over mål.
--
Se setup i profil
#17
Agurke
Elitebruger
04-05-2020 07:56

Rapporter til Admin
#9 Det jeg har set, siger Q4 i år for RTX 3000 serien. Vil sige det sådan, at skal man opgradere GFX i et eksisterende system, bare fordi man synes det trænger, så ville jeg holde den kørende til 3000-serien udkommer. Skal man have komplet ny PC, står man jo evt. uden PC overhovedet og kan have et behov her og nu. Her er der flere ting at tage højde for. Hvad med CPU f.eks.? Når RTX 3000 er kommet, er vi tæt på Ryzen 4000 og sådan kan man sikkert blive ved.
--
Ryzen 3700X, Rog Strix 2070 Super, Rog Strix B450-f gaming, 16gb TridentZ 3200C16, Corsair RM750X Gold.
#18
NikolajS
Ny på siden
04-05-2020 08:06

Rapporter til Admin
Helt enig med #16 ... Hvis det nuværende behov blot er CSGO, Fortnite og TFT så kan du sagtens nøjes med mindre end 2070S - så ville jeg nok gå med et 1660 Super - eller forsøge at finde et brugt 1660 ti, dem er der også rigeligt til salg af. Jeg så et næsten helt nyt 1660 ti ASUS Dual OC gå for 1.600 på facebook igår. Og mener da også der blev solgt et 1660 super for ca. samme pris herinde for nyligt. Så NÅR/HVIS behovet opstår for at spille mere krævende spil, så kan du opgradere. Og er den nye serie udkommet til den tid, så er det da bare win :-)
--
#19
Ilwaz
Guru
04-05-2020 08:47

Rapporter til Admin
#0 Hvis det først er til sommer, så det bare at vente. Simple as that. #17 Det kan man da ikke. Efter RTX 3000 og Ryzen 4000, så der ikke mere at vente på. Så nej, man kan ikke blive ved.
--
Grafikkort oraklet! Oh, and don't mind the vase.
#20
Agurke
Elitebruger
04-05-2020 09:43

Rapporter til Admin
#19 Efter Ryzen 4000 kunne man jo liiiige vente på din kæphest ddr5 i stedet Eller de evt. Nye amd gfx der sikkert er rygtet helt vilde på det tidspunkt.. Eller, eller. Så jo, der er altid noget der kommer ud om et halvt år.
--
Ryzen 3700X, Rog Strix 2070 Super, Rog Strix B450-f gaming, 16gb TridentZ 3200C16, Corsair RM750X Gold.
#21
Mrberk11
Ny på siden
04-05-2020 11:38

Rapporter til Admin
#16 Jeg spiller alt på "competetive" settings (low). Jeg vil meget gerne begynde at spille spil som Warzone, og måske endda købe det nuværende Battelfield (ser ud til at det bliver en lang sommer pga. Corona...) dog ville jeg ikke spille Warzone på low, men medium istedet eller high. Jeg står pt. uden et build. Jeg har tidligere haft GTX 1060, men den var simpelthen ikke kraftig nok til at køre 144 fps. kontnurligt, mens jeg også sad på discord og lavede andre ting. Jeg spiller 1080 p... Jeg har denne skærm: https://www.elgiganten.dk[...]
--
#22
Mrberk11
Ny på siden
04-05-2020 11:40

Rapporter til Admin
Glemte at nævne: Jeg spiller Fortnite competetive, altså hvor man i end game er rigtig mange mennesker, og grafikkort og CPU skal kunne klare det. Mit tidligere grafikkort GTX 1060 og CPU I5 (gammel gen.) kunne simpelthen ikke klare det hvis der var for mange spillere samlet et sted. Dette gælder også i CS:GO. Warzone var næsten helt umulig for mig.
--
#23
Dirty Poul
Mega Supporter
04-05-2020 14:43

Rapporter til Admin
#20 AMD har en release cycle på 12-18 måneder. Og med DDR5 og helt ny platform, så tror jeg nok du skal regne med 18 måneder fremfor 12 måneder. Så snakker vi sommeren 2022. Så nej, det vil ikke være "lige rundt om hjørnet" på samme måde som Vermeer, RDNA 2, og Ampere, som alt sammen kommer i slutningen af året. #21-22 De problemer du fortæller om lyder som CPU bottleneck. At der render mange rundt på en server gør ikke den store forskel for grafikkortet. Det rammer næsten udelukkende CPU. Og hvis den gamle i5 er en sløv 4 kernet CPU med 4 tråde uden mulighed for overclock, ja så har du problemet. Der vil være en verden til forskel at opgradere den til Ryzen 5 3600 med 6 kerner og 12 tråde. Det samme gør sig gældende for multitasking som at være på Discord eller se videoer ved siden af. Her er det også CPU, der sætter grænsen. Det eneste problem med et grafikkort som f.eks. 1660 Super vil være i Battlefield. Her vil det nok lige knibe lidt, hvis ikke du sænker de grafiske indstillinger. Du vil dog stadig få en langt bedre oplevelse, da 1660 Super er ca. 50% hurtigere end 1060 3GB. Så det vil jeg ærlig talt ikke tænke for meget over. Når du installerer det nye system, så må du endelig ikke tage det gamle OS med over i det nye system. Gem dine filer på en anden harddisk, f.eks. save games, billeder, dokumenter o.l., men ikke programmer og spil, og så geninstaller Windows på ny. Start på en frisk. Det kan spare dig for mulige problemer senere hen.
--
Se setup i profil
#24
Ilwaz
Guru
04-05-2020 14:55

Rapporter til Admin
#20 Nej, det kan man ikke. Hvis Ryzen 4000 lige er blevet udgivet, så går der helt år før den næste generation bliver lanceret. Og Intel's næste serie hedder Rocket lake, der fortsat benytter LGA 1200 og DDR4. Derudover formoder jeg at du har læst nogen af mine DDR5 relateret indlæg, siden du kalder det min kæphest. Du har dog ikke evnet at læse overskriften på de tråde, da det er i relation til brugere som benytter DDR3 baseret systemer. Hvortil det ikke giver mening at skifte til DDR4 baseret systemer, da du ikke vil kunne genbruge ram i det næste system. Hvad angår AMD's grafikkort, så er der intet at vente på. Da Radeon er et helt år bagefter Nvidia. #22 Så har der været et eller andet galt med din maskine. Du kan tjekke youtube, der et hav af spillere som kan klare disse spil, uden skod performence med de produkter.
--
Grafikkort oraklet! Oh, and don't mind the vase.
#25
Agurke
Elitebruger
04-05-2020 16:05

Rapporter til Admin
#24 Sjovt at du tror, at du har fuldstændigt styr på roadmaps og udgivelsesdatoer 2 år frem i tiden. Hvis du læser mit indlæg, så skriver jeg, at hvis han kun vil skifte gfx, så ville jeg vente til rtx 3000. Vil han skifte hel pc, så vil han bare skulle vente på Ryzen 4000, når rtx 3000 er ude om et halvt års tid. Dermed vente rigtigt længe fra nu, da alle på det tidspunkt vil sige, vent på Ryzen 4000. Og jo, når Ryzen 4000 er ude snakker vi om det næste... Men ja, dette kunne godt være et optimalt tidspunkt at købe... Hvis man kan vente så længe.
--
Ryzen 3700X, Rog Strix 2070 Super, Rog Strix B450-f gaming, 16gb TridentZ 3200C16, Corsair RM750X Gold.
--
Sidst redigeret 04-05-2020 16:06
#26
Qax
Semi Nørd
04-05-2020 17:05

Rapporter til Admin
#13 Jeg er med #14 her. Adata XPG SX8200 Pro 1 TB er virkelig super, til pengene. Jeg har den selv. #0 Hvad angår et 2070 Super. Hvis du står og har et behov for flere FPS eller pænere detaljer, så køb NU. Når at 3000 serien kommer, så vil der komme for lidt på markedet, så prisen bliver hypet op og deroppe vil den lille alt for længe. Så vi er et godt stykke på den anden side af juleaften, før at det giver mening at købe et 3070, som nok vil yde cirka det samme som 2070 Super.
--
Asrock Z370 Extreme4 - I5-8600K - NZXT Kraken X62 Ripjaws 2x8gb 3200Mhz CL14 Asus 1080 Strix A8G - Acer XB271HU Adata XPG SX8200 Pro 1TB
#27
Dirty Poul
Mega Supporter
04-05-2020 17:32

Rapporter til Admin
#25 Roadmaps er nemme at få adgang til fra AMD og Intel. Kun Nvidia er god til at skjule dem. Vi kender AMD og Intels overordnede planer rimelig godt. Vi kender bare ikke de præcise lanceringsdatoer, og det gør de heller ikke selv, da disse afhænger af resultatet af deres fremtidige arbejde, som de naturligvis ikke kender endnu. Men AMD har offentligt sagt, at deres plan er en release cycle på 12-18 måneder med Zen. Det fortalte CTO Mark Papermaster i et interview, vist nok til Anandtech. Intel har længe kørt deres 1 års release cycle. Om de fortsat forsøger det kan vi jo kun gætte os til. Men igen er 12-18 måneder nok ikke helt galt. Det kommer nok også til at passe fint med, at 11th gen (Rocket Lake) på DDR4 kommer mellem Ryzen 4000 (Vermeer) på DDR4 og Ryzen 5000 (Cézanne) på DDR5. Det passer med, at 10th gen (Comet Lake) er lige om hjørnet, mens Vermeer først kommer sidst på året og lægger ca. et halvt år mellem de to. Så kan vi nok forvente Rocket Lake omkring sommeren eller efterår næste år, med Cézanne et halvt til et helt år senere. Og så går der nok noget der ligner et halvt år yderligere før vi ser Rocket Lakes efterfølger på en ny platform med DDR5. Vi kender slet ikke de præcise datoer, men vi kan gisne om de store linjer rimelig præcist. De kan sagtens ændres, som det f.eks. skete ved Coffee Lake, som blev en paper launch, da Zen tvang Intel til at udgive før planlagt. #26 Hvor har du den idé om, at et Ampere skulle blive vildt dyr og ikke yde ret meget bedre end Turing? Vi kender ikke priserne, men den øgede konkurrence fra RDNA 2 gør, at vi kan forvente et dyk i priserne for at gøre dem konkurrencedygtige. Samtidig viser leaks, at vi kan forvente noget højere ydelse end fra Turing, både hos Ampere og RDNA 2. Jeg tror langt de fleste vil blive ufatteligt skuffede, hvis vi får samme slags lancering som i de sidste 2 år fra Nvidia og et 3070 ikke engang kan slå et 2080.
--
Se setup i profil
#28
crucial-kid
Redaktør
06-05-2020 20:40

Rapporter til Admin
For lige at bakke din Ampere pointe så, så ja der kommer et større hop. Ene og alene fordi, NVIDIA får så mange ekstra transistorer de kan lege med modsat RTX 2x00. Sidstnævnte handlede grundlæggende om at forsvare deres 95% markedsandel på datacenter training og samtidig få en fod indenfor døren på inferencing, som oplever stor vækst. For gamere hed det DLSS og ray tracing, men det var ikke målet, blot de to sideløbende spor på de to markeder. og ja sorry det bliver endnu et af mine ramblings om infrenceing og training, for det er her de vigtige dele i Radeon vs Gefoce battlen bliver skåret. Når vi får et markant ydelseshop i spil, så har det meget lidt med RDNA2 at gøre. NVIDIA er flere år foran AMD, og når AMD indhenter NVIDIA på traditionel GPU ydelse (rasterization om man vil), har NVIDIA et stort forspring på inferencing og training og er 3+ år forud på software. Er det for hårdt sagt, at de er markant bagud? Så overvej lige det her inden mig og mit RX 480 får NVIDIA fanboy klistret i panden: NVIDIA bruger 40% af deres chip på non-gaming eller i hvert fald non-ydelse, er en node bagefter (12nm vs. 7nm) og alligevel er de resterende 60% af transistorerne i NVIDIA chippen ikke blot hurtigere end 100% af AMD’s transistorer, men bruger også mindre strøm. Vil AMD hente ind med RDNA2? Et stort rungende ja, og også have et konkurrencedygtig chip højere eop i produktstakken (læs pris), men alt andet vil også være en mindre katastrofe og decideret pinligt, når de blot behøver at gå mere forsigtigt til værks med inferencing og training, og dermed bruge en større del af chippen på klassisk ALU grafikydelse. Men NVIDIA er år foran, og folk der siger andet har for smal et fokus. Ved godt folk er røv ligeglade med datacenter snak og synes jeg ævler hver gang jeg bringer inferencing/training op, men GPU’er bliver ikke udviklet med henblik på et marked. Når NVIDIA vælger et bestemt spor i designet, skal der være payoff på alle markeder herunder også CAD/CAM, HPC, datacenter og you name it. Tidligere var balancegangen mellem markederne nemmere i en tid, hvor GPU’en angreb CPU’ens markedsandele, og der ikke var så mange andre typer udregningsenheder i spil. Det er der nu, og derfor bliver de nød til ikke blot at udnytte deres parallelle fordele (ALU’er / shader enheder) og brede format support til alt. Der skal dedikeret HW på bordet og nye non-gaming instruktioner. Arbejdet for NVIDIA er som altid: sørg for, at en feature på et marked kan bruges på et andet. Derfor blev gaming lidt snydt sidst med DLSS og ray tracing som var gamingens retfærdiggørelse af de 40% af transistorbudgettet, som blev brugt på inferencing og training. Det var positivt på lang sigt, men langt hen af vejen ligegyldigt for alle som købte første RTX gen (Quake II eller Minecraft RTX on, wuhuuu..?). Sidstnævnte er en personlig holdning, som man kan være uenig i, men jeg kender ikke nogen som bruger RT eller DLSS. Det bliver brugt i YT videor og tech demoer. Det store spørgsmål for både RDNA2 og Ampere er, hvor meget vil de dedikere til inferencing og training, og hvilket enheder, formater og instruktioner de vil dedikere til det. NVIDIA lavede i første omgang tre enheder, og spørgsmålet er, om de vil fortsætte med det eller om deres ALU’er igen kan tage noget af det, så om ikke andet at transistorfordelingen imellem dem bliver anderledes. Det tror jeg personligt på, så alt bliver på samme arkitektur modsat Volta/Turing, men med et andet mix af enheder mod datacentret i toppen. AMD har derimod endnu ikke meldt sig på banen for inferencing eller training, men har ikke noget valg fremadrettet, hvis de vil sælge til datacentret, CAD/CAM, HPC maskinerne osv. Det er allerede i støbeskeen med tre imponerende HPC wins, som er afhængige af andet end klassisk 32bit ALU ydelse (aka det vi bruger i spil), så vi afventer blot, hvo meget de vil holde i nye instrukser på ALU / shaderne og hvor meget de vil håndtere med dedikeret hardware. Igen det lyder røv kedeligt og langt væk fra RTX og Radeon med inferencing, training, datacenter og blah blah blah, men ovenstående spørgsmål er lig, hvor meget ydelse vi får ekstra til gaming, da det er disse spørgsmål, der afgår hvor meget ekstra vi får til texture, shaders osv. som betyder noget for vores evne til at holde alle de nye 144 Hz skærme beskæftiget. Og nej en hel 3000 serie er ikke lige på trapperne. Topmodellen er, men den koster knaster og hvornår kommer den lige i Geforce variant. TSMC har ikke kapacitet nok til en hurtig transition af 60/70/80/80ti. Isoleret set i forhold til kapacitet dummede NVIDIA sig, da de satsede for meget eller flirtede for meget med Samsung for at få prisen ned på TSMC's 7nm. Efterspørgslen var for stor på 7nm, AMD hapsede deres bid af kagen og så måtte NVIDIA krybe til korset og vente lidt til de kan få deres bid af kagen, når Apple begynder deres transition væk fra 7nm eller simpelthen satse på en ny 7nm EUV node (tvivler på den del før 2021 på en stor GPU kontra mobilproducenterne).
--
Mvh. Thomas Christensen.
#29
Akasut
Guru
06-05-2020 21:26

Rapporter til Admin
Godt indlæg, med masser af god information hvordan tingene forholder sig, så det er bestemt ikke ævl.
--
#30
Dirty Poul
Giga Supporter
06-05-2020 23:18

Rapporter til Admin
#28 Helt enig med #29. Ingen ævl, men tværtimod interessant læsning. Jeg er dog ikke helt enig i dine vurderinger. "Vil AMD hente ind med RDNA2? Et stort rungende ja, og også have et konkurrencedygtig chip højere op i produktstakken (læs pris), men alt andet vil også være en mindre katastrofe og decideret pinligt, når de blot behøver at gå mere forsigtigt til værks med inferencing og training, og dermed bruge en større del af chippen på klassisk ALU grafikydelse. Men NVIDIA er år foran, og folk der siger andet har for smal et fokus." Intel var langt foran. Så kom Ryzen med 60-ish% højere IPC end Bulldozer, Zen 2 med næsten 20% højere end Zen, og ser ud til at overhæle Intel i alt med yderligere ca. 15% med Zen 3. At være år foran giver kun mening når vi snakker små gradvise trin op. Når der designes en radikalt anderledes arkitektur fra bunden af, så har det at være foran mindre betydning. Betyder det stadig noget? Ja, bestemt. Men se på springet fra Vega til RDNA. Det gav ca. 50% højere ydelse per watt, begge på 7nm node. AMDs officielle udmelding lyder på yderligere 50% højere ydelse per watt fra RDNA til RDNA 2, også på 7nm. Så vidt jeg husker var det N7 på Vega og RDNA, mens RDNA 2 er N7P. Eller også var det RDNA 1/2 på N7P begge to. Uanset hvad, så ligger langt størstedelen af forbedringing af arkitekturen. Javist skal vi tage AMDs ord med et gran salt. Men når vi lægger dette sammen med leaks og de officielle udmeldinger om ydelsen på næste generations konsoller, ja så tegner der sig et billede af en kamp mellem Radeon og GeForce som vi ikke har set i mange år. "Derfor blev gaming lidt snydt sidst med DLSS og ray tracing som var gamingens retfærdiggørelse af de 40% af transistorbudgettet, som blev brugt på inferencing og training. Det var positivt på lang sigt, men langt hen af vejen ligegyldigt for alle som købte første RTX gen (Quake II eller Minecraft RTX on, wuhuuu..?). Sidstnævnte er en personlig holdning, som man kan være uenig i, men jeg kender ikke nogen som bruger RT eller DLSS. Det bliver brugt i YT videor og tech demoer." Helt enig, bortset fra DLSS. Det første DLSS var som RT helt ubrugelig. Men DLSS 2.0 er vanvittig. Hvis ikke det var fordi det krævede så meget at implementere i hvert individuelt spil, så ville det være en total game changer. Vi snakker +20-30% ekstra ydelse uden forringelse af den visuelle kvalitet. Hvis Nvidia formår at gøre den fuldstændig generel, som ikke kræver ekstra udvikling fra spiludviklerne, så snakker vi total dominans fra Nvidia, hvis ikke AMD kan komme med modsvar. Sker det? Ja, det gør det nok. Men jeg tror, at vi snakker mindst et år. Til den tid kan AMD være klar. Det ville jo være for vildt at have til konsollerne, som alligevel skal opskalere til 4K hele tiden, som er der hvor DLSS 2.0 virkelig shiner. "Det store spørgsmål for både RDNA2 og Ampere er, hvor meget vil de dedikere til inferencing og training, og hvilket enheder, formater og instruktioner de vil dedikere til det. NVIDIA lavede i første omgang tre enheder, og spørgsmålet er, om de vil fortsætte med det eller om deres ALU’er igen kan tage noget af det, så om ikke andet at transistorfordelingen imellem dem bliver anderledes. Det tror jeg personligt på, så alt bliver på samme arkitektur modsat Volta/Turing, men med et andet mix af enheder mod datacentret i toppen." Personligt kan jeg slet ikke gennemskue det. Førhen havde vi samme arkitektur til datacenter og gaming med både AMD og Nvidia. Så kom Nvidia med Maxwell, som gav dem deres dominans fordi den fokuserede på gaming alene. Nu er AMD så klar til at splitte markedet med CDNA til compute og RDNA til gaming, mens Nvidia ser ud til at gå tilbage til en samlet arkitektur. Hvad fanden foregår der?
--
Se setup i profil
#31
bopenstoft
Monster Supporter
06-05-2020 23:20

Rapporter til Admin
vent på AMD 4000 serie CPU, vent på NVIDIA 3000 serie, vent på AMDs nye GPUer (alt vil blive presset i pris (så man får mere ydelse for pengene sammenlignet med nu.)
--
3900X|X570 GIGABYTE AORUS MASTER|16GB Ripjaws 3600 CL16| ASUS 1080Ti STRIX OC|ACER 271HU/DELL U2717D Samsung 850 EVO 1TB
#32
crucial-kid
Redaktør
07-05-2020 13:01

Rapporter til Admin
#30 Dirty Poul "Intel var langt foran. Så kom Ryzen med 60-ish% højere IPC end Bulldozer," Vi snakker grafikkort, så Ryzen har intet med det jeg skrev at gøre. Jeg er bestemt ikke AMD hater. RDNA er da fin, og Radeon kortene er konkurrencedygtige, men det gør ikke, at AMD er on par med NVIDIA. Som beskrevet kæmper AMD kun mod 60% af RTX NVIDIA chippene og taber på ydelse. Tænk lige lidt over det. Det er status for Turing vs. RDNA. Du vil nok se det som Radeon RX 5600 XT/5700 og lignende er konkurrencedygtig kontra NVIDIA 16x0/2060. For mig er det transistor vs. transistor. Hvis du tager 5600 XT og 1660 Ti, som mig bekendt er de modeller som er tættest på hinanden i MSRP (listepris) og uden de ekstra 40% til DLSS og RT. AMD = 10 milliarder transistorer, NVIDIA = 6,6 milliarder. Inden flueknepperne kommer, så nej de tal er ikke 100% sammenlignelige, men det er meget sigende og tæt på sandheden. Så AMD skal bruge ca. 40% ekstra transistorer og en bedre proces for at følge med NVIDIA i samme prisgruppe. Et godt og konkurrencedygtigt valg som gamer? Ja, men det er ikke lig, at de er on par med NVIDIA. Og ja når en producent siger x antal højere IPC, så skal man tage det seriøst uanset om det er NVIDIA, AMD eller Intel. De kan potentielt ryge i retten, hvis det ikke er tilnærmelsesvis rigtigt. Ligeledes har de kunder og investorer, som vil være vrede. Så fjern alle ord som rygter og gram salt, når en CTO snakker IPC eller performance forbedringer. Det kan være corner case på performance, men ikke særlig meget på IPC. "Nu er AMD så klar til at splitte markedet med CDNA til compute og RDNA til gaming" Pas på du ikke overtolket betydningen. Intel og AMD siger i øvrigt det samme med, men der kommer næppe til at være en forskel imellem de tre. AMD kommer ikke til at have identiske (mm2 og transistor antal) chips til de to markedet. Selv ikke NVIDIA har det grundet omkostninger, og de ejer altså GPU-markedet med 2/3 gaming, 90% add-in workstation, 95% datacenter og ligeså med server. Styrkeforholdet lyder sådan her: AMD = 6,7 milliarder USD og NVIDIA lige knap 11 milliarder USD, og AMD sælger altså både GPU og CPU'er. Anyway Intel, AMD og NVIDIA kommer til at have tæt på samme tilgang til opsplitningen af grafik og datacenter compute. Udviklingsmæssigt kan der ikke være den store forskel imellem grafik og datacentret. Simpel R&D udnyttelse, kompatibilitet og kost for udvikling og produktion dikterer det. Som jeg også forventer med Ampere, så får du en arkitektur på tværs af lineup'en (ingen Turing/Volta), og så vil der være forskel på grafik og datacenter compute delen imellem topmodellen og de andre. Altså designet. Dvs. grafikdelen er identisk på tværs, og så har du forskelligt mix oppe i toppen. Hvis du tager Turing som eksempel, så kan de f.eks. øge antallet af RT og tensor kerner kontra ALU'er i datacenter modellen. De kan også lave specielle tilpasninger af sidstnævnte i toppen med flere/færre understøttede formater, cache osv., men jeg tvivler pga. det har konsekvenser. På den måde har du de samme enheder og dermed R&D udnyttelse samt kompatibilitet på tværs af enheder, og samtidig et produkt som er tilpasset de specielle krav i toppen. Det er kun i toppen af produktstakken, at du vil se tilpasninger. Volta var en overgangschip pga. NVIDIA skulle reagere på truslen mod deres dominans på training. For lige at sætte NVIDIA's dominans på datacenter training i perspektiv, så laver selv Google 90+% af deres training på NVIDIA GPU'er trods de har deres egne dedikerede tensor chips, som ikke laver andet, og nu er i 3. generation. Google's tensor chips har langt højere throughput, men bliver primært brugt til latency og tidspresset training, hvor en GPU ikke kan følge med. GPU'en er mere alsidig, og derfor ligger størstedelen af arbejdet selv for Google på NVIDIA. Det kommer til at ændre sig, men det er en anden sag.
--
Mvh. Thomas Christensen.
#33
Dirty Poul
Giga Supporter
07-05-2020 15:55

Rapporter til Admin
#32 Endnu en gang spændende læsning. Jeg er forstår ikke vildt meget af det specifikke indenfor datacentre, og egentlig heller ikke det tekniske ved grafikkort overhovedet. Så hvis min sammenligning er helt hen i vejret, så sig endelig til :) "Vi snakker grafikkort, så Ryzen har intet med det jeg skrev at gøre." Fuldstændig rigtigt. Zen er dog relevant, da det er et eksempel på, at en helt ny kan vende op og ned på det hele og brat slutte al diskussion om at være flere år bagud. Det virker for mig at se som om, at det er præcis hvad RTG er ved at gøre med RDNA 2. RDNA var så vidt jeg forstod en slags mellemting mellem GCN og en helt ny arkitektur med nye instruction sets. RDNA 2 tager skridtet videre og har intet med GCN at gøre længere. Derfor snakker vi netop en helt ny arkitektur, som RTG ikke har leveret siden januar 2012, hvis ikke jeg tager meget fejl. "Hvis du tager 5600 XT og 1660 Ti, som mig bekendt er de modeller som er tættest på hinanden i MSRP (listepris) og uden de ekstra 40% til DLSS og RT. AMD = 10 milliarder transistorer, NVIDIA = 6,6 milliarder. Inden flueknepperne kommer, så nej de tal er ikke 100% sammenlignelige, men det er meget sigende og tæt på sandheden." Nej, jeg mener slet ikke, at det ligger tæt på sandheden. De tal er ikke sammenlignelige at to årsager: 1. Pris er irrelevant. Hvad der betyder noget er ydelsen. 5600 XT leverer ikke samme ydelse som 1660 Ti. Det leverer samme ydelse som 2060, ifølge Techspot: https://www.techspot.com[...] En forskel på 10-15%, hvis ikke mere. 2. 1660 Ti er den fulde udgave af TU-116, mens 5600 XT er en cut-down udgave. 5600 XT har samme antal transistorer, som den fulde udgave, der ligger i 5700 XT. Så du sammenligner sådan set 1660 Ti med 5700 XT, og ikke med 5600 XT, da 5600 XT ikke har adgang til alle transistorer i chippen. Det er da på ingen måde fair. Hvis du vil lave en sammenligning mellem TU-116 med det fulde antal transistorer med samme chip som 5600 XT med det fulde antal transistorer, så hedder sammenligningen 1660 Ti vs 5700 XT. Her snakker vi 6.6 milliarder transistorer hos Nvidia mod 10.3 milliarder transistorer hos AMD. Et 5700 XT yder ca. 50% mere end 1660 Ti og bruger ca. 50% mere strøm, ifølge Techspot: https://www.techspot.com[...] - vi har altså ca. samme ydelse ift. strømforbrug. Eller næsten, da AMDs kort har en del højere TBP end Nvida ved samme strømforbrug målt ved GPU. Så næsten lige. Vi snakker måske en forskel på 10%. Hvis du tager det fulde antal transistorer og deler det med 1.5, som er dens ydelse ift. 1660 Ti, så ender du på 6,9 milliarder transistorer. Vi ender altså på, at AMD skal bruge 6,9 milliarder transistorer for at nå samme ydelse som Nvidia får ud af 6,6 milliarder transistorer. Der er altså ikke ret stor forskel. Til gengæld er AMD på 7nm, mens Nvidia stadig er på 12nm, så der vil naturligvis være en stor forskel der. Mange mener, at Nvidia vil komme langt foran igen, når de går ned på 7nm. Men jeg ser dem altså ikke hente ret meget mere end de +50% ydelse pr. watt, som AMD påstår med RDNA 2. Så jeg tror det bliver uhyre lige mellem de to. Måske ikke helt i toppen, men for alt der giver mening at købe bliver det tæt. Og helt ærligt, er det ikke også mere interessant som forbruger, at AMD leverer en konkurrent til 3080 til $5-600 end til 3080 Ti til $800-1000? Jeg kan ærlig talt ikke se den store mening i at købe grafikkort til 10 000 kr. Det virker helt absurd for mig. Men at presse prisen på 3080 fra $700 til $5-600, se det bliver pludselig lidt mere spændende! "Styrkeforholdet lyder sådan her: AMD = 6,7 milliarder USD og NVIDIA lige knap 11 milliarder USD, og AMD sælger altså både GPU og CPU'er." Det er derfor, jeg er så spændt på RDNA 2. Ligesom der er brug for at sætte en stopper for Intels dominans og ekstreme profit, så er der også brug for at sætte en stopper for Nvidias dominans og profit. På den lange bane har vi desperat brug for AMD dominans nu her, og derfor krydser jeg virkelig fingre for, at RDNA 2 bliver en succes. Det er bedre for os som forbrugere, hvis RDNA 2 bliver en succes og Ampere flopper end den anden vej rundt pga. styrkeforholdet.
--
Se setup i profil

Opret svar til indlægget: Vente på Nvidia 3000-serie?

Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.

Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.

Opret bruger | Login
NYHEDSBREV
Afstemning


ANNONCE