Seneste forumindlæg
Køb / Salg
 * Uofficiel Black/White liste V3
Login / opret bruger

Forum \ Hardware \ Grafikkort

Rx 7700 xt og 7800xt i butikkerne

Af Super Supporter sp!d3r | 01-09-2023 11:11 | 2322 visninger | 42 svar, hop til seneste
Sider egentligt og venter på at de to nye kort fra amd kommer i butikkerne og ser kommer nogle benchmarks. Står med valget 4070 eller et fra amd til ca samme pris. Hvornår tror i vi begynder at kunne se dem i butikkerne. Syntes de normalt dukker op før realease
--
#1
EXIA
Super Nørd
02-09-2023 00:33

Rapporter til Admin
De kommer nok når NDA løftes d. 6/9.
--
1[R9 3950X|RTX 2080Ti SLi|X570|32GB 3600MHz] 2[R9 3900X|RTX 3080 TUF|X570|32GB 3200MHz] 3[R9 5900X|RX 6800 16GB|X570|32GB 3600MHz]
#2
gasolin
Guru
16-09-2023 13:33

Rapporter til Admin
rx 7700 xt Det er markant køligere og er mere stille end et rx 6700 xt, også selv om blæserne køre med højere hastighed (rx 6700 xt først, sapphire) https://www.techpowerup.com[...] https://www.techpowerup.com[...] Det yder bedre end et rtx 3070 ti og rx 6800 i 1920x1080 og 2560x1440 men ligger imellem de 2 kort i 3840x2160 https://www.techpowerup.com[...] 4190kr hos proshop https://www.proshop.dk[...] billigste 4070 koster over 4500kr Et rx 6800 xt er hurtigere og koster ca det samme https://www.pricerunner.dk[...] Fordel mængden af ram og en god pris i forhold til ydelsen Ulemper temperaturen og strømforbruget #0 fik du købt et kort ?
--
Sidst redigeret 16-09-2023 13:34
#3
EXIA
Super Nørd
16-09-2023 15:25

Rapporter til Admin
At betale over 4000kr for kun 12GB vram til 2023 og frem er stadig alt alt for meget, efter min mening.
--
1[R9 3950X|RX 7900XTX 24GB|X570|32GB 3600MHz] 2[R9 3900X|RTX 3080 TUF|X570|32GB 3200MHz] 3[R9 5900X|RX 6800 16GB|X570|32GB 3600MHz]
#4
BoreBissen
Guru
16-09-2023 15:30

Rapporter til Admin
#3 Det er jo ikke sikkert, at GPU'en er stærk nok til at det bliver et problem.
--
Ryzen 5700x | 16 GB RAM 3200 MHz ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i
#5
EXIA
Maxi Nørd
16-09-2023 15:42

Rapporter til Admin
#4 jeg synes allerede det er et problem hvis man giver mere end 4000kr for et grafikkort hvor GPUen så ikke er stærkt nok allerede. Jeg synes hele grafikkort markedet i dag er forskruet, en gang var midrange kort med fornuftig ydelse i 1900-2500kr pris lejet. I dag er samme segment oppe i 4000kr klassen.
--
1[R9 3950X|RX 7900XTX 24GB|X570|32GB 3600MHz] 2[R9 3900X|RTX 3080 TUF|X570|32GB 3200MHz] 3[R9 5900X|RX 6800 16GB|X570|32GB 3600MHz]
#6
gasolin
Guru
16-09-2023 15:46

Rapporter til Admin
Et rx 6700 xt fås stadig til under 3000kr
--
#7
Jesper Gæst
Monster Supporter
16-09-2023 15:50

Rapporter til Admin
#5 Engang kostede huse og lejligheder også det halve af nu. (Det sommerhus jeg i 1987 købte for 290K står nu til ca 3 millioner) Det er bare irrelevant for nuværende og fremtidigt marked.
--
Sidst redigeret 16-09-2023 15:52
#8
EXIA
Maxi Nørd
16-09-2023 17:00

Rapporter til Admin
#7. Der er også temmelig meget forskel på et hus og et grafikkort, et hus kan stadig holde værdi eller mere ved renovation. Du kan ikke vedligeholde et grafikkort til en højere værdi end oprindelige pris, medmindre det er et specielt eksemplar. Et RTX 3080 var jo et kort hvor man håbede priserne ville blive mere normale igen, da det som top kort lå til 5500kr. I dag ligger RTX 4080 på mindst 9000kr. Ja jeg ved inflation og prisstigninger spiller ind, men derfor gør det ikke markedet mindre vanvittigt i forhold til at betale mere for mindre.
--
1[R9 3950X|RX 7900XTX 24GB|X570|32GB 3600MHz] 2[R9 3900X|RTX 3080 TUF|X570|32GB 3200MHz] 3[R9 5900X|RX 6800 16GB|X570|32GB 3600MHz]
#9
BoreBissen
Guru
16-09-2023 17:02

Rapporter til Admin
Omkostningerne til udvikling af GPU'er er også noget andet end fx. Gtx 970 æraen. Tag fx Ray Traycing - her koster den mange udvikler kroner. Og uden at være ekspert, så er det også mit gæt at det er dyrere at udvikle selve arkitekturen, da den er mere kompleks (antallet af transistorer).
--
Ryzen 5700x | 16 GB RAM 3200 MHz ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i
--
Sidst redigeret 16-09-2023 17:03
#10
Lasn85
Ultrabruger
17-09-2023 15:31

Rapporter til Admin
#2 6800XT er ikke hurtigere end 4070. De yder cirka identisk og 4070 bruger markant mindre watt og har klart bedre features. #8 Nvidia sænkede prisen på 3000 serien fordi de brugte Samsung 8nm som nærmere er en 10nm node når man sammenligner med TSMC 7nm. Netop derfor kunne de sælge 3000 kortene billigere. Med 4000 serien gik de tilbage til TSMC og endda deres 4nm (optimeret 5nm) proces som er bedre end hvad AMD bruger (5nm, 6nm og 7nm TSMC). Denne process koster sikkert det dobbelte hvis ikke 3 gange så meget at bruge og clockspeed og effektivitet er også steget markant med 4000 serien. TSMC 4nm er grunden til dette. AMD prissatte 7900 serien lige så højt som Nvidia da de udkom, men mest fordi de havde et kæmpe lager af 6000 kort som skulle skydes af. Netop derfor ventede de også (alt for) længe med at udgive 7700XT og 7800XT, ellers ville de brænde inde med tonsvis af 6800 og 6900 serie chips. Folk kan ævle om VRAM alt hvad de vil. Det er primært AMD GPU ejerne der går op i det, for det er det eneste de har at snakke om desværre. 3070 udkom til samme pris som 6700XT men i dag slår 3070 stadig et 6700XT meget nemt selv i 4K gaming. Hvilket kan ses her: https://www.techpowerup.com[...] Ingen af kortene er beregnet til 4K gaming men 3070 med kun 8GB VRAM har nok VRAM til at slå 6700XT 12GB alligevel. Det er fuldstændigt ligemeget med masser af VRAM når selve chippen er den begrænsende faktor. Ingen af kortene i dag, inklusiv 4090, kommer til at kunne udnytte 24GB VRAM. Et 4070 Ti 12GB vinder også over et 3090 24GB i 4K gaming som det kan ses i samme link. Nvidias kort koster mere fordi de har bedre features og Nvidia kort holder også prisen bedre ved salg, så de penge man betaler mere kommer alligevel igen. Jeg solgte mit 3080 Ti til 75% af hvad jeg betalte da jeg skiftede til 4080 og det gjorde jeg kun fordi jeg fik et voldsomt godt tilbud på 4080, ellers havde jeg nok bare fortsat med at bruge 3080 Ti indtil 5000 serien, for de 12GB VRAM var rigeligt selv i 3440x1440. Ikke ét eneste spil har givet mig problemer med 12GB i 3440x1440, men nu har jeg 16GB, hurra for det men ligemeget. På det tidspunkt at 4K gaming kan kræve 20+ GB VRAM så vil alle chips i dag være lige til papirkurven.
--
7800X3D, RTX 4080, 34" 3440x1440 QD-OLED
--
Sidst redigeret 17-09-2023 15:37
#11
EXIA
Maxi Nørd
17-09-2023 16:57

Rapporter til Admin
#10. Det hele er lagt meget godt ud heraf hardware unboxed https://youtu.be[...] Det er ikke kun AMD ejere der går på i vram, jeg har i de sidste 15år primært haft Nvidia kort i mine primære Pc'er, men ikke længere. Det skyldes ikke at kortene er dårlige, men på ingen måde vil jeg understøtte Nvidias griske prisstigninger hvor. Ram priserne er i forvejen faldet markant i forhold til tidligere så hvad skulle holde dem fra ikke at udstyre topkortene med mere Vram, så de har længere ben ind i fremtiden. 12GB vram på kort til 6000-7000kr synes jeg ikke hører nogen steder hjemme. 12GB er måske nok nu i 2023 og lidt ind i 24 til 4k, men hvem ved spiludviklerne er jo også stadig elendige til optimeringer og komprimering af teksturer. Din påstand med Nvidia features giver mere værdi, kommer helt an på den enkelte, og mestendels skyldes det også markedsføring af at det er det eneste der dur, og folk der ikke er inde i jargonen ved ikke bedre. Bare gå tilbage til 2013, med GTX 980Ti, her være nvidias nyeste top kort endda billigere ved release end deres tidligere flagskib GTX 780Ti. Men pris eksplosionen skete jo med introduktionen af Founders Edition kort, for nu solgte Nvidia jo direkte fra egen fabrik uden om AIB partnere og dette til en $100 pris premium for deres eget kort. Det betød jo at AIB partnere umiddelbart også hævede priserne, da deres customboard og køleløsninger blev dyrer, hvis ikke de skulle tage jord til nvidias egen produkter. Så prisen på grafikkort er løbet fuldstændig løbsk over årerne, f.eks sammenlignet med CPU priser der har ligget rimeligt stødt i samme leje over de sidste 10år. https://youtu.be[...] Mit valg af AMD skyldes udelukkende af jeg finder det det mindste af to onder.
--
1[R9 3950X|RX 7900XTX 24GB|X570|32GB 3600MHz] 2[R9 3900X|RTX 3080 TUF|X570|32GB 3200MHz] 3[R9 5900X|RX 6800 16GB|X570|32GB 3600MHz]
#12
Lasn85
Ultrabruger
17-09-2023 17:03

Rapporter til Admin
#11 Meningsløs sammenlining når 6800 er fra en anden bracket og kostede klart mere. Det var også en GPU som var svær at få fat i, da AMD prioriterede produktionen af 6800XT over det. Meget lidt udbredt GPU. 6700XT og 3070 kostede det samme på udgivelsen (479 vs 499 dollars) og 3070 slår stadig 6700XT nemt i 1440p i 2023 og det har derudover også klart bedre features. AMDs FSR er ikke på niveau med DLSS og AMD brugere har ingen mulighed for DLAA. Den bedste AA metode i dag. AMDs VSR taber nemt til DLDSR. AMDs Relive er håbløst ift. ShadowPlay AMDs RT ydelse er i hegnet i de fleste spil og vinder aldrig over Nvidia alligevel. Så længe AMD ikke kan matche Nvidia featues, så er de tvunget til at forlange en lavere pris. AMD er billigere af en grund. At de smider mere RAM på er fint men det hjælper ikke rigtigt i sidste ende, når det stort set altid er GPUen der sætter begrænsningen. Netop dét kan man se ved at sammenligne 3070 med 6700XT i dag. Jeg bruger DLAA i utallige spil i dag. Det er den bedste AA metode uden tvivl og kun RTX kort kan gøre det. DLSS har desuden også indbygget AA, hvilket folk glemmer. Det er FSR overlegen på alle parametre, hvilket TechSpot for nyligt har testet. FSR vandt ikke i nogen spil over DLSS og DLSS vandt stort set dem alle med lethed.
--
7800X3D, RTX 4080, 34" 3440x1440 QD-OLED
--
Sidst redigeret 17-09-2023 17:07
#13
EXIA
Maxi Nørd
17-09-2023 17:07

Rapporter til Admin
#12. Noget værre vrøvl. Det er da stadig en gældende sammenligning. Det viser to GPUer fra samme generation og hvordan de "ældes"
--
1[R9 3950X|RX 7900XTX 24GB|X570|32GB 3600MHz] 2[R9 3900X|RTX 3080 TUF|X570|32GB 3200MHz] 3[R9 5900X|RX 6800 16GB|X570|32GB 3600MHz]
#14
Lasn85
Ultrabruger
17-09-2023 17:07

Rapporter til Admin
#13 Du aner jo ikke hvad du snakker om. Det er GPUer som kostede hhv. 499 dollars og 579 dollars hvor sidstenævnte blev lavet i et ufatteligt lille oplag, hvilket Steam HW Survey bekræfter. 3070 og 6700XT er de folk der skal sammenlignes, da de kostede omtrent det samme. Radeon 6800 kostede knap 20% mere end 3070....... Fuldstændig flawed sammenligning. Når man sammenligner kort fra samme generation, skulle man nok overveje at tage et kort i samme prisklasse. Du kan jo tjekke mit link som nemt beviser at 3070 slår 6700XT i 2023, selv i 4K minimum fps og ingen af de kort kan køre native 4K alligevel uden brug af opskalering og her vinder DLSS altid nemt over FSR.
--
7800X3D, RTX 4080, 34" 3440x1440 QD-OLED
--
Sidst redigeret 17-09-2023 17:12
#15
Lasn85
Ultrabruger
17-09-2023 17:16

Rapporter til Admin
Lad os tjekke hvordan kort fra samme bracket ældes i stedet; https://www.techspot.com[...] Ingen forskel. De ligger stadig side om side men Nvidia vinder nemt i RT og features (DLSS, DLAA, DLDSR, Shadowplay, Reflex mv) AMD kort er også markant mindre værd ved salg end Nvidia kort er. Jeg fik 75% af pengene tilbage da jeg solgte mit 3080 Ti, prøv du det med et AMD kort efter 2 år. AMD grafikkort falder lige så meget som Android telefoner over tid og efterspørgslen er langt mindre.
--
7800X3D, RTX 4080, 34" 3440x1440 QD-OLED
--
Sidst redigeret 17-09-2023 17:18
#16
BoreBissen
Guru
17-09-2023 17:20

Rapporter til Admin
"AMD kort er også markant mindre værd ved salg end Nvidia kort er. Jeg fik 75% af pengene tilbage da jeg solgte mit 3080 Ti, prøv du det med et AMD kort efter 2 år." Det er vist en sandhed med modifikationer, rigtig mange undgår Nvidias 8 GB kort når de køber second hand.
--
Ryzen 5700x | 16 GB RAM 3200 MHz ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i
#17
EXIA
Maxi Nørd
17-09-2023 17:20

Rapporter til Admin
#14. Jo jeg ved skam godt hvad jeg snakker om. Jeg har været i dette game i 30år og med 200 kort mellem hænderne. Jeg har heller ikke påstået det var 1:1 sammenligning. Jeg har også pt RX 6800 16GB og RTX 3080 10GB, og selv om det mest 1:1 til sammenligning ville være med RX 6800XT, så kan jeg godt finde scenarier hvor RX 6800 som egentlig er svagere, formår at afvikle spil i 1440p/4k bedre grundet der kan allokeret mere Vram så frametimes og spikes er mere stabile. Et RTX 3070 8GB og RX 6700 XT 12GB Ja der vil RTX 3070 8GB være det hurtigere kort i 1080p og i stadig overvejede i 1440p, da denne chip er hurtigere uanset vram mængden, MEN det kan ikke benægtes at i nogle spil da ser man en limitation med 8GB vram og texture popping og frametime skipping sker, så på kortet med mere Vram vil spillet afvikles mere flydende også selvom den umiddelbart average fps er lavere.
--
1[R9 3950X|RX 7900XTX 24GB|X570|32GB 3600MHz] 2[R9 3900X|RTX 3080 TUF|X570|32GB 3200MHz] 3[R9 5900X|RX 6800 16GB|X570|32GB 3600MHz]
--
Sidst redigeret 17-09-2023 17:21
#18
Lasn85
Ultrabruger
17-09-2023 17:34

Rapporter til Admin
#16 Ikke på DBA det er helt sikkert. Nvidia er meget nemmere at sælge for meget mere. Netop fordi Nvidia kort holder prisen, som iPhones gør kontra Android telefoner, som heller ikke er til at sælge efter et par år. #17 Jeg har haft 500+ kort mellem hænderne og bygget 500 hvis ikke 1000 maskiner til folk, så jeg ved godt hvad folk generelt er ude efter og det er ikke et AMD grafikkort. Derudover har jeg B2B erfaring med hardware salg til detail. Hvorfor tror du AMDs markedandel på dGPU på Steam er helt i hegnet ift. Nvidia? 9 ud af 10 gider ikke engang overveje et AMD kort fordi de tidligere har haft problemer eller kender nogen der har. Det er AMDs store problem. Dertil kommer at deres features halter og bevæger man sig lidt væk fra de mest populære spil, så er ydelsen også ofte i hegnet med et AMD kort, især i betaer og early access spil. Her fokuseres der på Nvidia, fordi 80% af PC brugere (og de fleste udviklere) sidder med et Nvidia kort. Derudover er ingen af AMDs features noget værd ift. Nvidias og de kan heller ikke klare RT ret godt. Netop derfor sælges deres kort til en lavere pris. FSR er håbløst ift. DLSS og AMD har intet modsvar til DLAA, DLDSR samt DLSS 3.x
--
7800X3D, RTX 4080, 34" 3440x1440 QD-OLED
--
Sidst redigeret 17-09-2023 17:39
#19
Lasn85
Ultrabruger
17-09-2023 17:43

Rapporter til Admin
AMDs primære fokus er og bliver CPU/APU markedet. Det er her de tjener pengene. De har ikke meget incitament til at jagte dGPU markedet. Netop derfor gør AMD ikke særligt meget for at vinde markedsandele her. RDNA4 får slet ingen high-end GPUer og AMD har opgivet at kæmpe mod 4090 (officielle ord fra AMD) AMD tjener mere per wafer på at sælge CPUer og APUer kontra GPUer og deres GPU output æder fra deres CPU/APU output. Det er AMDs store svaghed. 100% afhængighed af TSMC. AMD har heller ikke pengene til at slå Nvidia på features. Nvidia dominerer AMD totalt på Gaming GPUer, Enterprise GPUer og især AI GPUer. Alt Nvidias AI indtjening vil også hjælpe dem på Enterprise og Gaming markedet. Nvidia tjener styrtende på AI lige nu og det vil de gøre i flere år frem.
--
7800X3D, RTX 4080, 34" 3440x1440 QD-OLED
--
Sidst redigeret 17-09-2023 17:47
#20
EXIA
Maxi Nørd
17-09-2023 17:52

Rapporter til Admin
#18. Det er fint, jeg referer blot til de kort jeg selv har ejet og haft i længere tid mellem fingre i mine personlige maskiner. Jeg har også B2B erfaring, direkte kontakt med AIB partnere og producenter, bl.a til div OC events i min tid som skribent/hardware anmelder mv, derfor har det været rart for mig at kunne se hvordan HW ældes over tid og hvordan ydelsen er. Nvidia har altid været den førende i markedsandele, sådan har det altid været så hvorfor det skal blandes ind i ligningen forstår jeg ikke. At 9 ud af 10 ikke vil overveje AMD og at du ikke mener, deres features er noget værd, står for egen regning. Ja Ray Tracing er pt bedre på Nvidia da de også er en hel generation foran, men AMD har alligevel hentet meget fra RX 6000 til RX 7000 serien, som de nye på banen. Dertil kommer det også om Ray Tracing betyder, noget for nogen, og det er en subjektiv sag. For mig er Ray Tracing ikke a nogen signifikant betydning, da ydelsestabet stadig er altid for stort i forhold til den visuelle gevinst. Måske om to/tre kort generationer kan RT være en fast feature der ikke behøves at vælges fra. Uanset hvad så er min pointe og holdning, at både Nvidia og AMD giver os langt mindre for pengene end tidligere. Lige nu groomes forbrugere til at betale mere for mindre og stadig forventes at være loyale . Jeg vil bare ikke være med til at give 4000~5000kr for et midrange kort, når jeg ved hvordan tingene har været, men fint hvis folk om 2-3år har det ok med at give 8000-9000 for et midrange kort. Så er jeg nok permanent flyttet til konsoloplevelsen.
--
1[R9 3950X|RX 7900XTX 24GB|X570|32GB 3600MHz] 2[R9 3900X|RTX 3080 TUF|X570|32GB 3200MHz] 3[R9 5900X|RX 6800 16GB|X570|32GB 3600MHz]
--
Sidst redigeret 17-09-2023 17:55
#21
Lasn85
Ultrabruger
17-09-2023 18:05

Rapporter til Admin
#20 Du får det til at lyde som om konsol gaming er billigere, men her bliver man malket med dyre spil og abonnementer og langt de fleste gange er det også en dårlig oplevelse, især hvis man er mere end midt gennen generationen hvor 30 fps for alvor bliver aktuelt pga. aldrende hardware. Vel at mærke 30 fps som ikke engang kan holdes stabil. Personligt brækker jeg mig over fps under 60 som burde være minimum og på PC er 100+ altid mit mål. PS5 og XSX har allerede haft mange spil som er låst til 30 fps, nogle endda med forced motion blur. En feature jeg hader overalt på jorden. AMD er faldet i dGPU markedsandele år efter år i mange år efterhånden. Så det går den forkerte vej kan man sige men AMD har bare ikke noget belæg for at vågne op, for de tjener mere på CPU/APU som er deres hovedfokus. RT er heller ikke det mest vigtige for mig når vi snakker RTX kort. Det er DLSS, DLAA og DLDSR samt Reflex. AMD har intet der kan matche disse features og de har slet ikke et modspil til flere af dem. DLAA giver mig det bedste AA på markedet og eftersom det er en del af DLSS presets nu, findes det i ekstremt mange spil eller kan moddes ind med lethed. Jeg spiller pt. Starfield med DLSS mod, hvor jeg netop bruger DLAA. Det er FSR2 og native AA langt overlegen. DLSS Quality slår også FSR2 med lethed her og forbedrer native på mange parametre (skarpere tekst og ingen shimmering og jaggies som er FSRs store problem)
--
7800X3D, RTX 4080, 34" 3440x1440 QD-OLED
--
Sidst redigeret 17-09-2023 18:10
#22
EXIA
Maxi Nørd
17-09-2023 18:14

Rapporter til Admin
#21. Nå jeg siger konsol oplevelsen, er det for at betale mindst af to onder. Jeg foretrækker altid pc over konsol, men det kan muligvis være det ændre sig, hvis markedet stikker helt af. Heller ikke utænkeligt helt at trække stikket med spil, og så fokusere på en anden hobby.
--
1[R9 3950X|RX 7900XTX 24GB|X570|32GB 3600MHz] 2[R9 3900X|RTX 3080 TUF|X570|32GB 3200MHz] 3[R9 5900X|RX 6800 16GB|X570|32GB 3600MHz]
#23
JenzZz
Monsterbruger
18-09-2023 10:44

Rapporter til Admin
4060 ti 8gb og 16gb yder stort set ens, selv i 4k på trods af dobbelt ram. Det kan ses i nedenstående link og deres konklusion er også "No significant performance gains from 16 GB VRAM" Det er en sjov sammenligning at kigge på, fordi chippen er 100% ens og den eneste forskel er ram, så det udelukker alt andet. Dog kører 16gb udgaven 60 mhz højere boost clocks (se side 1), hvilket forklarer de 1-2% mere ydelse. 8gb kortet er et founders edition hvor 16gb kortet er et custom, så ja det booster lidt højere. Kun et par enkelte spil i deres test kommer frem til at 8gb er for lidt i 4k (der kigges på 1% minimum fps) og lad os nu være realistiske, ingen af disse gpuer er gode til 4k alligevel så det er nok lidt meningsløst at kigge på 4k ydelse når alt kommer til alt på kort af denne kaliber. Så man skal nok spørge sig selv om hvor meget ram betyder og ellers bruge sund fornuft. Det er feks at købe en kraftigere gpu i stedet for at kigge på antallet af ram hvis ens mål er at køre 4k gaming 12gb bør være mere end rigeligt i dag og flere år frem til 2560x1440 og 3440x1440 for selv i 4k er der stort set intet at hente ved at have 16gb eller mere, for samme test viser 4070 12gb yder som et 6800xt 16gb i 4k minimum fps https://www.techpowerup.com[...] https://www.techpowerup.com[...]
--
Ryzen 5800X3D / 32GB / 4090 / 4K144Hz
--
Sidst redigeret 18-09-2023 10:47
#24
gasolin
Guru
18-09-2023 10:50

Rapporter til Admin
#23 Man skal vel bruge min 8gb vram og gerne lidt mere for at man mærke en foskel og så det vel bare at den med 16gb køre mere flydende, lige som med for lidt system ram
--
#25
JenzZz
Monsterbruger
18-09-2023 11:40

Rapporter til Admin
#24 Hvad ævler du om, de tester minimum 1% fps :D
--
Ryzen 5800X3D / 32GB / 4090 / 4K144Hz
--
Sidst redigeret 18-09-2023 11:41
#26
Lasn85
Monsterbruger
18-09-2023 19:05

Rapporter til Admin
Folk overvurderer altid hvor meget VRAM der skal bruges. Udviklerne er godt klar over hvad folk sidder med af udstyr. De kigger meget på Steam Hardware Survey faktisk. PS5 og XSX har ~16GB RAM på tværs af hele systemet. Dvs. OS/GAME/VIDEO. Det er shared RAM. Derudover allokerer mange engines en fast procentdel af VRAM, hvilket betyder at GPU Usage er ubrugeligt på tværs af kort med forskellig mængde og/eller arkitektur (og det er det sådan set alligevel, da man ikke 100% kan regne med den GPU Usage man ser i software). Derudover betyder cache også en del og 4000 serien har markant mere cache end Ampere. Hvis man læser om arkitekturen vil man også se at Nvidia har flere måder at sænke VRAM forbrug på end AMD faktisk har. Det betyder at AMD faktisk har brug for mere VRAM end Nvidia, da de også har dårligere memory compression. Så svaret er ikke så simpelt som man skulle tro og sammenligning på tværs af arkitekturer er svært. Derfor ser man på ydelsen frem for de rå specs, som i bund og grund intet betyder så længe ydelsen er til stede. Den eneste måde at finde ud af om man er VRAM limited på er at kigge på minimum fps. Man vil ikke være i tvivl hvis man løber tør. Det vil betyde at fps falder drastisk og det vil typisk også give stutter. Det har jeg aldrig oplevet siden GTX 570 med 1.25GB VRAM og Fury X 4GB ;) Jeg ville helt klart hellere have en kraftigere GPU med mindre VRAM end en mindre kraftig GPU med mere VRAM. Det kan aldrig betale sig at fremtidssikre på dette punkt. Der har været meget ævl om GTX 970 og dets 3.5GB VRAM, men det var faktisk aldrig rigtigt et problem i spil, først mange år senere hvor GPUen alligevel satte begrænsningen og IKKE kunne makse spillene ud. At nogle enkelte spil kan få et 8GB i knæ på absolut højeste settings i 4K opløsning er jo fuldstændigt ligemeget for folk, for det er ikke realistisk at gøre. Intet 8GB kort trækker de mest krævende spil på maks i 4K alligevel. At tvinge et kort i knæ er noget helt andet end at sætte kortet op til at køre med 60, 120 fps eller hvad man nu foretrækker. ALLE kort kan tvinges i knæ i spil, hvis man vil. Selv mit 4080 og selv 4090. Bare åben Cyberpunk og sæt alt på maks inklusiv RT. Det er jo ikke et realistisk scenarie i dag. Måske om 2-3 generationer der vil være kort der kan det. Men ikke i dag.
--
7800X3D, RTX 4080, 34" 3440x1440 QD-OLED
--
Sidst redigeret 18-09-2023 19:12
#27
Lasn85
Monsterbruger
18-09-2023 19:17

Rapporter til Admin
Det betyder også at et kort som 4060 Ti 16GB er fuldstændigt irellevant. Det er ganske enkelt spild af penge at betale mere for 16GB når GPUen er så svag. Det vil tabe til 4070 12GB i alt, fordi GPUen på 4070 er markant kraftigere og kortet har mere båndbredde. Jeg er ikke imponeret over 4060 serien, men alt over 4070 er sku fint. 4070 er fantastisk til små builds grundet ekstremt lav watt forbrug eksempelvis. Det yder som et 3080/6800XT men bruger markant mindre power. AMDs lower end 7000 serie kort er heller ikke noget at råbe hurra for. Så det gælder begge sider. Hvorfor tænker man så. Fordi de skulle have solgt ud af det kæmpe lager fra forrige generation. Det er ikke et tilfælde at AMD ventede så længe med at smide 7700XT og 7800XT på markedet. De skulle have solgt 6700, 6800 og 6900 serien ud først. Både Nvidia og AMD prøvede at mætte markedet under mining ræset - som så crashede - hvilket betød de brændte inde med kæmpe antal GPUer fra forrige generation og dette skete tæt på nuværende generation, derfor er kortene fra nuværende generation prissat højt, ellers ville forrige generation være usælgelig. Dertil kommer inflation, som påvirker alt. Så ja, det hele giver meget god mening hvis man tænker over situationen.
--
7800X3D, RTX 4080, 34" 3440x1440 QD-OLED
--
Sidst redigeret 18-09-2023 19:22
#28
Sofacykel
Mega Supporter
18-09-2023 21:11

Rapporter til Admin
Blabla Ja, langsomme kort med meget vram er lidt ligegyldigt i de fleste tilfælde (dog ikke alle), men sagen er at vram er meget binært. Enten har du nok, eller også har du ikke. Til de priser kan du ikke forsvare 4070 og det er vildt at du prøver. Tror du Nvidia kommer og klapper dig på skulderen som tak eller har du selv købt og står på mål? "Jeg ville helt klart hellere have en kraftigere GPU med mindre VRAM end en mindre kraftig GPU med mere VRAM." Men kan vi blive enige om at der kan eksistere folk med andre prioriteter end dig? Og hvem siger i det hele taget at man behøver at vælge mellem de to - hvorfor ikke begge? Det er jo kun en restriktion Nvidia lader til at implementere for at presse folk op i højere klasse kort. 4070 er jo ikke på magisk vis billigere eller bedre fordi det har mindre vram... Tværtimod på begge fronter, med raytracing som undtagelse og kun i nogle tilfælde.
--
R7 5700, RTX 3070, 32GB, Xonar Essence STX+STU - Nom!
#29
gasolin
Guru
18-09-2023 21:27

Rapporter til Admin
#25 Hvis man skal have gavn af de 16gb skal man da have spil hvor kortet kan bruge mere end 8gb vram ellers snupper man bare 8gb kortet Tænker det lige meget hvis begge kort har samme 1% low så længe det er højt nok Ville dog vælge 16gb kortet hvis begge koster det samme, lige som et arc a770 fordi det har 16gb
--
#30
JenzZz
Monsterbruger
19-09-2023 12:23

Rapporter til Admin
#28 Hvorfor har du købt et 3070 hvis du går så meget op i RAM? Men det sjove er at 3070 8GB stadig slår 6700XT 12GB i dag. Ret nemt faktisk. Begge kort kostede det samme da de udkom. Nu er prisen på 6700XT raslet ned, i bedste AMD stil. Deres hardware falder altid drastisk i pris over tid, hvilket også er grunden til den lavere pris ved gensalg når man er færdig med kortet.
--
Ryzen 5800X3D / 32GB / 4090 / 4K144Hz
--
Sidst redigeret 19-09-2023 12:25
#31
Lasn85
Monsterbruger
19-09-2023 18:03

Rapporter til Admin
#30 True, AMD har altid konkurreret mere på pris end Nvidia og Intel. AMD er nødt til at være billigst for at de sælger noget. Det er både godt og skidt. For folk som vil sælge deres brugte AMD hardware, er det knap så godt :P Jeg regner da også med at min 7800X3D er tæt på usælgelig, når jeg smider en 8000/9000 serie chip i. Den vil sikkert være meget lidti værd på brugtmarkedet selvom den er købt til 3800, men er snart under 3000 i ny pris inklusiv Starfield. Jeg tænker også at Intels 14. Generation nok skal skubbe prisen længere ned, inden Ryzen 8000 lander i Q1-Q2 næste år og så vil 7000 serie for alvor være billigt. Bare se på 5800X3D da den udkom og nu. Mener jeg har set den til under 2000 eller tæt på.
--
7800X3D, RTX 4080, 34" 3440x1440 QD-OLED
--
Sidst redigeret 19-09-2023 18:05
#32
NitroBlast
Guru
19-09-2023 19:22

Rapporter til Admin
#30 AMD leverer mere rasterisering end NVIDIA per krone. NVIDIA har RT, FrameGen og DLSS som salgsargumenter, men slår man alt det "kunstige" fra, så er AMD bedre på rå grafikkraft. Hvis man går op i DLSS og RayTracing, så skal man helt sikkert gå med NVIDIA, som tingene er lige nu, men er man ude efter rå rasterisering, så er AMD bedre til prisen. Næste generation af både AMD's & NVIDIA's grafikkort kan blive spændende. AMD roder med RT-kerner og NVIDIA roder med chiplets, som vil gøre produktion af GPU'er mere effektiv, da mindre chips giver mindre spild. Angiveligt skulle toppen af 5000-serien i øvrigt yde helt vildt ift. 4000 serien. #31 Intel 14th gen er skrald, det er 13th gen med højere klok, højere strømforbrug og mere varme - der er absolut ingen grund til at vente på / vælge 14th gen..
--
http://xlinx.dk[...] i7 2600K, 16GB PC3-12800, GA-Z68XP-UD4 R1, GTX 560Ti HAWK, 250GB 840 EVO
#33
JenzZz
Monsterbruger
20-09-2023 09:09

Rapporter til Admin
#31 Helt enig. AMD skal forbedre deres features hvis de skal have mig som kunde nogensinde igen. De halter på alt for mange områder når vi snakker features og fokuserer kun på rasterization ydelse, hvilket ikke er nok for mig i dag. Jeg har ikke problemer med ydelsen i raster og har ikke haft det i flere år. #32 Du glemmer DLAA, som er en af de fedeste features ved RTX kortene, for folk som udelukkende går efter billedkvalitet. DLAA er den bedste AA løsning i dag og forbedrer billedkvaliteten markant. Slår alle andre AA løsninger. Desuden kan DLSS nemt hæve billedkvaliten ift native på de høje presets, selv over native 4K. https://www.rockpapershotgun.com[...] Så du kan kalde det kunstigt alt det du vil, billedkvaliteten i sidste ende er det der betyder noget for mig og Nvidia er førende her. Folk med AMD GPU og Nvidia GTX GPU vil aldrig acceptere det, men sådan ligger landet. Jeg kan ikke vente med at spille Cyberpunk 2077 2.0 + Expansion med det meste lir slået til. Intet AMD kort kommer til at komme i nærheden af den billedkvalitet jeg vil få i spillet og intet GTX kort kan nærmest trække spillet i det hele taget. Måske med alt på low. Ja det bliver da spændende med de fleste mener Nvidia MCM kun bliver til HPC, AI og Enterprise i det hele taget. Desuden er der længe til vi ser noget nyt fra Nvidia, sker i 2025 engang. Nvidia har ikke travlt for de sidder på tronen. Men det viser jo meget godt hvorfor AMD har problemer med at lave profit på gaming GPU markedet, når de fleste som sidder og taler positivt om AMD sidder med gamle grafikkort og ikke støtter op om dem alligevel. Personligt så hader jeg ikke AMD, jeg har selv flere AMD chips i huset, men når det kommer til GPUer så gider jeg ikke spilde min tid. AMDs primære fokus er og bliver CPUer og det er også det de gør bedst. Hvis man skal bygge nyt system og vil have Intel, så giver det ingen mening IKKE at vente på 14. generation. Selvfølgelig køber man det nyeste hvis man køber noget nyt. Intel er måske lidt bagud i spil ift ryzen 3d chips men de samme 3d chips yder ikke specielt godt udenfor spil. Bare se på 7800X3D som yder som en 7700X eller under, i applikationer. Med en Intel chip, er du sikret god ydelse over hele linien, både i og udenfor spil, og en 13700K og snart 14700K klasker en 7800X3D stort udenfor spil, men er tæt på i spil samlet set til samme pris. Ja den vinder også i nogle spil, f.eks. Starfield.
--
Ryzen 5800X3D / 32GB / 4090 / 4K144Hz
--
Sidst redigeret 20-09-2023 09:13
#34
Cykle35
Elite Supporter
20-09-2023 09:19

Rapporter til Admin
Det er som om i fanbois ikke kan se ud over jeres eget behov DLSS ABCD DLAA KKK XXX opskalering nedskalering overskalering streaming og hva faen ved jeg er aldrig noget jeg og mange andre personligt bruger hvorfor det er totalt ondsvagt at skyde +20-25 ekstra i et Nvidia kort fremfor AMD
--
Strix B650-A WIFI + P500 DRGB + RM1000e Asus TUF 7900 XTX OC+ 7800x3D 2x16GB FURY Beast RGB 6000MHz
#35
JenzZz
Monsterbruger
20-09-2023 10:31

Rapporter til Admin
#34 Nej selvfølgelig bruger du det ikke, du har jo et AMD kort og derfor er prisen mindre på dit AMD kort. Det halter på features og mangler RT ydelse, og prisen er sat derefter. Derudover har AMD intet der kommer tæt på mit 4090 i 4K som jeg kører.
--
Ryzen 5800X3D / 32GB / 4090 / 4K144Hz
--
Sidst redigeret 20-09-2023 10:32
#36
Martin.v.r
Guru
20-09-2023 10:42

Rapporter til Admin
Lasn85 mit næste kort bliver igen et AMD ? har et 3080 lige nu,men når man vil låse bios op på disse kort,så vil jeg tilbage til AMD ?? prisen/ydelse,og de 10/30%+ man kan hente på dem når man låser dem op på AMD man man ændre subtiming på ram,og meget andet. at du lige har slået dig fast på 1 spil,holder jo ikke i lange løb :D jeg er ikke fan af mærke,men af ydels vs penge
--
asus maximus xiii apex z590 i9-11900K @ 5.1GHZ 2x16 Corsair 4600@5000MHZ cl18 1000W ROG STRIX ROG STRIX-GTX1070-O8G-GAMING
--
Sidst redigeret 20-09-2023 10:43
#37
Lowice
Junior Supporter
20-09-2023 11:01

Rapporter til Admin
Når folk begynder at forsvare firmaers høje prisstigninger, som på ingen måde er fair selv med ny teknologi, så ved man bare at det kun kan blive værre. Der har været meget nyt teknologi mellem de mange generationer af grafikkort men prisen er aldrig stukket af som den er nu. De er bare blevet godt og grundig grådige. Men hvis man selv hopper i fælden og betaler dobbelt så meget for et grafikkort end det burde have kostet, ja så vil man jo gerne forsvare det for ikke at se dum ud. Men uanset hvilke argumenter der kommer for at forsvare de høje pris stigninger på Nvidia kort, selv når AMD kan holde det langt længere nede, så holder det bare ikke og man skal vist bare ignorere dem der forsvare det, da de ikke taler forbrugernes sag men kun firmaet sag og man skal aldrig forsvare et firma der er så grådig som Nvidia. Når det så er sagt, så skal jeg selv have et Nvidia kort når jeg skal opgrader men aldrig nogensinde om jeg kunne eller vil forsvare Nvidias priser, da de er helt hen i vejeret. Jeg kan bare godt lige deres features men det gør stadig pænt ondt at skulle betale så meget for noget man egentligt ikke kan forsvare, så håber meget på at priserne bliver bedre inden jeg skal opgradere,selv om jeg tvivler meget nu Nvidia har så mange forbruger der forsvare deres priser. Hvorfor så sætte det ned.
--
#38
JenzZz
Monsterbruger
20-09-2023 11:18

Rapporter til Admin
#37 Selvfølgelig kan AMD holde prisen længere nede, når de ikke bruger penge på udvikling som Nvidia gør. AMD er årevis bagefter Nvidia på features og har kun fokus på rasterization ydelse. Jeg er ret ligeglad med raster ydelse. Det kræver ikke meget. Jeg vil have bedst mulig grafik og det giver Nvidia mig. Jeg bruger næsten RTX features i alle spil. DLAA er kraftigt undervurderet og en sublim AA løsning der ikke er matchet af nogen anden løsning i dag. Når DLSS nævnes, glemmer folk at DLAA er et preset af DLSS nu. Alle nyere DLSS spil har DLAA og DLAA har kun fokus på at forbedre grafikken hvor DLSS kan forbedre grafikken samtidig med at løfte ydelsen (især på Quality preset og ikke de lavere modes). DLSS har også indbygget AA. DLSS handler om meget mere end bare at få mere ydelse. Men det forstår meget få folk åbenbart. DLSS kan hæve billedkvalitet samtidig med at ydelsen stiger, hvilket der er mange beviser på. Derudover forlangte AMD selv 900 og 1000 dollars for 7900XTX og 7900XT da de udkom ;) Men i bedste AMD stil så falder prisen hurtigt og det er jo fint, dog knap så lækkert for dem som købte deres kort ved udgivelsen og skal sælge deres kort om 1-2 år, hvor de vil være meget lidt værd. Til sammenlining så fik jeg 9000 for mit 3090 da jeg købte 4090 på udgivelsen. Et kort jeg betalte 12000 for da jeg købte det på udgivelsen. Der er bare langt flere købere til Nvidia kort, så prisen er højere. Præcist som når man sælger en iPhone kontra en Android. En brugt Android er tæt på intet værd bagefter, men en iPhone kan nemt hive flere tusinde hjem igen. Så merprisen er minimal i sidste ende. Nvidia har ingen grund til at sætte deres priser ned. De har 80% af gaming markedet og den hurtigste gaming GPU og ejer både Enterprise og AI markedet. Havde AMD haft et super produkt, ville Nvidia være mere presset, men det har de bare ikke. Især ikke på Enterprise og AI, hvor de rigtige penge tjenes. Nvidia står til at tjene hundredevis af milliarder på AI de næste år.
--
Ryzen 5800X3D / 32GB / 4090 / 4K144Hz
--
Sidst redigeret 20-09-2023 11:23
#39
NitroBlast
Guru
20-09-2023 11:27

Rapporter til Admin
#33 + #38 Du siger, at ingen støtter op om AMD's grafikkort, men går man ind på pricerunner og kigger på populariteten af grafikkort, så er AMD ret godt representeret: https://www.pricerunner.dk[...] P.S: Selvom man er til NVIDIA, så har man behov for at AMD udvikler grafikkort, for eller kunne NVIDIA skrue ned for udviklingen og op for priserne. Jeg ved, at mit næste grafikkort bliver AMD, men om det bliver denne generation eller næste, er jeg til gengæld i tvivl om.
--
http://xlinx.dk[...] i7 2600K, 16GB PC3-12800, GA-Z68XP-UD4 R1, GTX 560Ti HAWK, 250GB 840 EVO
--
Sidst redigeret 20-09-2023 11:29
#40
JenzZz
Monsterbruger
20-09-2023 12:43

Rapporter til Admin
#39 Kigger man på Steam HW Survey så sidder Nvidia på 80% eller mere og kigger man på gaming revenue så ligger Nvidia markant foran AMD. Tjek deres regnskaber. Jeg har arbejdet med B2B salg i årevis og ved at Nvidia sælger langt bedre. Det er også grunden til at de fleste firmaer som laver custom kort prioriterer Nvidia kort højere end AMD kort. Bare se på Asus og MSI. MSI er ofte flere uger forsinkede med AMD custom kort og Asus genbruger ofte bare deres Nvidia køleløsning. Du kan tro hvad du vil, AMD har intet jeg vil betale for når vi snakker GPU. Kan være de forbedrer sig, det håber jeg, men lige nu bliver det et nej tak. Når/hvis AMD forbedrer features markant inklusiv RT ydelse, så kan det være de vil komme i betragtning om en generation eller to. Jeg tror AMD bliver glade når du køber et grafikkort fra dem. Bliver det et kort til mere end 2500? AMDs store problem er at det primært er deres billige kort der sælger og det tjener de minimalt på. Tjek hvor mange nyere og nogenlunde kraftige GPUer AMD har i Top 25 GPUer på Steam. Ingen kan jeg allerede nu afsløre :) AMDs bedst sælgende kort, er billige kort, såsom RX580/570/480/470
--
Ryzen 5800X3D / 32GB / 4090 / 4K144Hz
--
Sidst redigeret 20-09-2023 12:48
#41
NitroBlast
Guru
20-09-2023 13:02

Rapporter til Admin
#40 Jeg går ud fra, at det er denne liste, du referer til: https://store.steampowered.com[...] Det er ikke ligefremt NVIDIA's topsegment, der dominerer den liste, og ting som RT osv. ser ikke ud til at være vildt eftertragtet. Derimod er det nærmere den billige ende af NVIDIA's segment der dominerer, og her ville de fleste nok have fået mere for pengene ved AMD.
--
http://xlinx.dk[...] i7 2600K, 16GB PC3-12800, GA-Z68XP-UD4 R1, GTX 560Ti HAWK, 250GB 840 EVO
#42
JenzZz
Monsterbruger
20-09-2023 13:29

Rapporter til Admin
#41 Prøv og kig igen. Nvidias RTX 3000 og 4000 serie er AMDs 6000 og 7000 markant overlegen derinde. AMD har nærmest ingen nyere grafikkort i top 25 på den liste. Kun deres iGPU (mobile) og nogle low-end GPUer. Det sjove er at Intel æder flere og flere markedsandele derinde. Det er lige før jeg tror Intel er en større konkurrent til AMDs GPUer end Nvidia er efterhånden. For Intel fokuserer netop direkte i AMDs vigtigste segment - Low/Mid End markedet.
--
Ryzen 5800X3D / 32GB / 4090 / 4K144Hz
--
Sidst redigeret 20-09-2023 13:31

Opret svar til indlægget: Rx 7700 xt og 7800xt i butikkerne

Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.

Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.

Opret bruger | Login
NYHEDSBREV
Afstemning


ANNONCE