Seneste forumindlæg
Køb / Salg
 * Uofficiel Black/White liste V3
Login / opret bruger

Nyheder

AMD Freesync Bliver Klar Til Juleshopping

Skrevet af Thomas Christensen | 17-10-2014 16:06 | 12022 visninger | 37 kommentarer, hop til seneste

Overvejer du at opgradere din skærm til højere opløsning eller måske AMD's Freesync, behøver du blot vente til november. Om blot en måned kommer de første skærme med AMD's skærmsynkroniseringsløsning på markedet, skriver Fudzilla. De første Freesync skærme bliver dermed klar til julesalget. 

Freesync synkroniserer skærmens opdateringer med den hastighed grafikkortet kan håndtere, og giver dermed et mere behageligt billede og oplevelse af en mere stabil framerate. Implementeringen er en anelse anderledes, men Freesync er AMD's pendant til NVIDIA's G-SYNC, som er blevet udråbt som en game changer for spiloplevelsen.

Begge løsninger vil føre til bedre spiloplevelse både ved høje og lave framerates. Ligeledes vil problemerne med vertikal synkronisering (VSYNC) være fortid, da skærmen og grafikkortet altid vil være synkroniseret og kun sende og vise hele frames.

Hvor NVIDIA benytter egen hardware, som skærmproducenterne kan implementere i bedste plug and play stil, kræver AMD's Freesync en ny generation af skærmskalere. En skærmskaler sørger for, at signalet bliver synkroniseret og sendt til skærmens panel.

Mens NVIDIA lavede deres egen hardware, som fungerer i samspil med skærmskaleren, skulle AMD skulle i stedet blot overbevise producenterne af skærmskalere til at opgradere deres eksisterende løsninger.

Uden en tredjeparts del burde AMD's Freesync kompatible skærme derfor være en anelse billigere end NVIDIA's G-SYNC skærme, ikke mindst inden NVIDIA får andengenerations G-SYNC klar. NVIDIA's løsning har desuden ekstra ventetid i førstegenerations G-Sync sammenlignet med AMD's implementering.

Det vil dog ikke være alle skærmskalere, som bliver Freesync kompatible. For at kunne udnytte Freesync i spil skal man have et R9 295 X2, R9 290x, R9 290, R9 285, R7 260X eller R7 260 grafikkort.

#1
Ilwaz
Giga Nørd
17-10-2014 16:26

Rapporter til Admin
Nederen, håbede ellers på at det ville fungere med den første generation af GCN..
--
#2
Notional
Mega Nørd
17-10-2014 16:59

Rapporter til Admin
1. Det hedder Adaptive Sync skærme (da display port standard hedder Adaptive Sync.) Freesync er AMD's navn på deres driver/software implementation. 2. G-sync bruger en meget dyr FPGA processor med 750MB monitor ram. Adaptive Sync bruger almindelige ASIC controller chips uden monitor ram. Altså er Adaptive Sync langt billigere at producere. Det siger selvsagt ikke noget om hvad skærm producenterne vil kræve for disse skærme. G-sync 2 vil nok være billigere ASIC. 3. Spil skal ikke understøtte noget som helst, men bare køre som de gør i forvejen. Hvis det er FPS låste spil, der kører 30 fps vsync, så vil skærmen også køre 30 fps, ligesom på G-sync. #Ilwaz, ja det er ærgeligt, men controlleren på de ældre kort, kan ganske enkelt ikke understøtte det. På GCN 1.0 vil Freesync kunne bruges til at synce framerate med film (23,96/24/30 fps osv), og det kan sænke framerate for strømsparing. Men ikke fuld synkronisering i spil.
--
I7 4790K; Asus Ranger Z97; 8gb DDR3 1600; Asus 290 4GB DCUII; Wrapped In Lian Li v700wx; Dual Dell 2007wfp; Logitech diNovo Laser; Windows 8.1 B64.
#3
Lasse
Gæst
17-10-2014 19:13

Rapporter til Admin
Jeg tror ikke vi ser noget før næste år engang. Vi har ikke engang set en ordenlig test af denne teknologi. Mange venter spændt på en sammenligning med Gsync. Jeg tror ganske enkelt ikke adaptive sync kan slå gsync. Grunden er simpel: En fast fps på lad os sige 60 fps på 60 hz skærm, vil IKKE eliminere tearing. Det vil kun minimere det. På Gsync er tearing elimineret. Det har længe været muligt at fastlåse ens fps til 60, 120, 144 eller hvad man nu kører af opdateringsfrekvens. Men jeg køber ikke ny skærm før jeg har set en sammenligning. Så håber på det bedste og at det ikke trækker i langdrag.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#4
UffeBG
Ultrabruger
17-10-2014 19:59

Rapporter til Admin
#2 Tak for meget informativt indlæg :)
--
ROG V gene . 3570K@4400 . NH-U12P SE2 . 16GB Beast@2200 . R9 280@1025 . 830 128GB . F3 1TB . HCG 620M . U2311h . KONE pure . QCK Mass . G27@GTEYE
#5
Damish
Ultra Supporter
17-10-2014 20:00

Rapporter til Admin
men Freesync er AMD's pendant til NVIDIA's NSYNC, som er nsync er det ikke et frækt boyband? ;)
--
4770K • Asus Gryphon TUF • H100 • GTX 980 • 16GB 2400MHz • SSD 180GB+250GB • AX850 • Bitfenix Prodigy • Asus 27" ROG SWIFT PG278Q
#6
Jakob-K
Ny på siden
17-10-2014 20:31

Rapporter til Admin
#6 Haha jeg spottede den også da jeg læste. Som #2 udpegede var det ikke verdensklasse journalistik i denne artikel, men tak for opdatering om at ADAPTIVE sync udkommer snart ^^
--
#7
crucial-kid
Guru
18-10-2014 04:32

Rapporter til Admin
#2 1 - AMD fremsatte et forslag til VESA, som så valgte at kalde den del de er ansvarlige for "DisplayPort Adaptive-Sync". I AMD regi er Project Freesync deres pendant til G-SYNC lidt endnu, og Adaptive-Sync den protocol de bruger til at opnå det. Det fremgår meget klart i deres Freesync FAQ: http://support.amd.com[...] Vi bruger i øvrigt det AMD kalder det, og det som folk kender det som. Selv hvis det var det rigtige navn at bruge, kan vi pt. ikke bruge Adaptive-Sync til særlig meget i en overskrift eller beskrivelse. Ved ikke helt hvad 2 er rettet mod, men kan da nævne, at AMD forventer, at G-SYNC skærme vil koste 80-100 USD mere end Freesync skærme. Sidstnævnte forventede de ville koste ca. 20 USD mere end standardskærme det første stykke tid pga. øgede krav. NVIDIA blev lidt irriterede over AMDs udmelding mht. prisforskellen, men det er mig bekendt det eneste reelle vi har. I forhold til 3 har du helt ret. Det er hermed rettet. Var heller ikke af den opfattelse, men det fremgik sådan af en kilde, og så røg det med inden der blev trykket post. #5 Ved ikke lige, hvor frække de var, men den får du bare for dig selv. Har lavet den fejl i to tidligere nyheder. Der blev det heldigvis rettet inden nyheden blev tilgængelig.
--
Mvh. Thomas Christensen.
#8
ReneSDK
HOL Moderator
18-10-2014 09:37

Rapporter til Admin
Apdaptive-sync er så vidt jeg kan forstå en valgfri tilføjelse til Displayport specifikationerne som producenterne kan vælge at følge. Hvis de ikke vælger det, så understøttes FreeSync heller ikke. Spændende, men nederen for os forbrugere at de ikke kan blive enige om en standard.
--
FFHAU!
#9
bjQrnen
Superbruger
20-10-2014 13:53

Rapporter til Admin
#3 "En fast fps på lad os sige 60 fps på 60 hz skærm, vil IKKE eliminere tearing. Det vil kun minimere det. På Gsync er tearing elimineret. Det har længe været muligt at fastlåse ens fps til 60, 120, 144 eller hvad man nu kører af opdateringsfrekvens." Er det ikke bare g-sync og v-sync du sammenligner der? Når AMD beskriver adaptive sync som: "real-time adjustment of a monitor’s refresh rate of a display over a DisplayPort link" - så får jeg ikke indtryk af at frameraten bare låses på f.eks. 60.
--
#10
Cordion
Monster Nørd
20-10-2014 17:18

Rapporter til Admin
260(X) vil understøtte freesync, men 270(X) vil ikke? er det bare en fejl at den ikke er med, eller understøtter 270 virkelig ikke freesync?
--
Microsoft Surface 2 pro, 256GB, 8GB RAM and loving it
#11
Lonestar
Juniorbruger
22-10-2014 08:26

Rapporter til Admin
Er der nogen, der kan finde noget information om, hvordan Freesync overhovedet skal virke? Alle kilder refererer det til "variable refresh rate", men det kan implementeres på mange forskellige måder, som giver mange forskellige ulemper. G-Sync fungerer ved eksakt timing af refresh af skærmen lige efter et nyt skærmbillede er produceret af GPUen. GPUen sættes først igang med at tegne et nyt billede, når man er sikker på, at GPUen ikke når at blive færdig før skærmen kan vise et nyt billede. Og det nye billede opdateres så såsnart GPUen er færdig. Men hvordan virker Freesync? Hvis det bare er en variabel FPS cap, så sænker det frameraten overall. Hvis det er en justering af refreshraten billede for billede, så virker det ret akavet at kalde det refreshrate i stedet for at kalde det frame timing.
--
#12
Notional
Mega Nørd
22-10-2014 13:30

Rapporter til Admin
#10 Det er kun GCN 1.1 der understøtter fuld Adaptive Sync. GCN 1.0 understøtter det kun til strømsparing og video afspilning. #11 Det er ikke helt sådan GS fungerer. GS er overkompliceret med en speciel monitor ram buffer, der sammenligner forrige billede med det nye. Det giver ikke meget mening. Essentielt fungerer GS og AS (Adaptive Sync) på samme måde, da de begge er baseret på Variable VBlank signaler, oprindeligt opfundet til strømsparing på bærbare enheder. Adaptive Sync fungerer således: 1. Ved opstart/tilslutning af skærm, vil skærmen fortælle grafikkort hvilket interval af hz, der understøttes, f.eks. 17-144hz. 2. Grafikkortet vil under spil der efter lave et billede og sende det til skærmen, der viser det med det samme. Efterfulgt af billedet, vil skærmen modtage et Vblank start signal, der fortæller skærmen at det skal lade være med at skanne efter nye billeder, men istedet holde det nuværende billede på skærmen. 3. Når grafikkortet har lavet næste billede sendes et VBlank slut signal, efterfulgt af det nye billede. VBlank slut signalet fortæller skærmen at det skal skanne efter et nyt billede. Dvs. at ved AS er der kun en énvejs kommunikation, hvor grafikkortet dikterer refreshrate på skærmen og dermed synk'er det. Gsync er langt mere kompliceret, da det har en underlig tovejs kommunikation, hvor grafikkortet først skal spørge kortet om det er istand til at modtage et nyt billede. Efter positivt svar sendes billedet så, der sammenlignes med buffer billedet i skærmens dyre 750MB buffer. Præcis hvad skærmen gør med den buffer og hvorfor er ikke forklaret specielt af Nvidia. Det eneste der ikke er forklaret med AS endnu, er hvad der sker når FPS overstiger skærmend max hz. Om grafikkortet sænker sin egen fps (altså max spil fps = max hz) eller hvad. Gsync bliver lidt underlig og øger latency en smule. Uanset er slutresultatet at både AS og GS fungerer nogenlunde ens og har samme resultat. AS er bare enklere opbygget og langt billigere at implementere, samt det er en industri standard. Desværre har Nvidia valgt at bruge billige display controllere på deres kort, så selv 900 serien ikke er istand til at understøtte AS (det er kun DP 1.2 kompatibelt, ikke DP 1.2a).
--
I7 4790K; Asus Ranger Z97; 8gb DDR3 1600; Asus 290 4GB DCUII; Wrapped In Lian Li v700wx; Dual Dell 2007wfp; Logitech diNovo Laser; Windows 8.1 B64.
#13
Lonestar
Juniorbruger
22-10-2014 15:58

Rapporter til Admin
#12 Tak for forklaringen omkring AS. Umiddelbart lyder AS lidt mere smart end GSync på nogle punkter. En indvending fra NVidia om AS var dog, at "det blev demonstreret på to laptop-skærme, som fungerer anderledes end alm. skærme. Derfor er AS [på det tidspunkt] ikke demonstreret korrekt". Gad vide, om det har været fordi, der ikke fandtes DisplayPort 1.2a skærme på det tidspunkt? Umiddelbart tror jeg, at fidusen ved at sammenligne framsne er, at man så kan spare strøm iom at man ikke skal refreshe panelet, hvis billedet (helt eller delvist) ikke er opdateret. Men det er bare mit gæt. Umiddelbart lyder det ikke til at være den store besparelse, når billedet alligevel skal overføres til skærmen for at kunne sammenlignes.
--
#14
Notional
Mega Nørd
22-10-2014 20:59

Rapporter til Admin
#13 Som sagt er både GS og AS baseret på Variable Vblank, der er en del af eDP (embedded displayport) til bærbare. Derfor var det let for AMD, at lave et proof of concept på en bærbar, da de allerede variable vblank egenskaber indbygget. Siden har de besluttet sig at få hardware delen implementeret i DisplayPort standarden under navnet Adaptive Sync, der har samme egenskaber og funktion som Gsync. Altså kan man godt argumentere for, at Nvidia havde en pointe ift. den gamle poc model, men den har som sagt ikke meget at gøre med den industri standard, der findes nu i AS. Ideen er jo at panelet fastholder et billede, indtil et nyt er tilgængeligt, hvilket er helt pointen med vblank signalerne. Som sagt er det ikke til at sige, da vi kun ved hvad Nvidia har fortalt os.
--
I7 4790K; Asus Ranger Z97; 8gb DDR3 1600; Asus 290 4GB DCUII; Wrapped In Lian Li v700wx; Dual Dell 2007wfp; Logitech diNovo Laser; Windows 8.1 B64.
#15
Lonestar
Semibruger
23-10-2014 08:56

Rapporter til Admin
#14 NVivia må da have et eller andet kort i ærmet. Ellers virker det helt nonsens at udvikle en udskiftelig scaler til skærmene. Hvorfor ikke bare benytte VBLANK-signalerne, som AMD gør? Enten har de gang i at udvikle mere på deres scaler, så de kan tilbyde noget ny funktionalitet... eller også har de lavet noget af et fejlskud denne gang. Angående: Det eneste der ikke er forklaret med AS endnu, er hvad der sker når FPS overstiger skærmend max hz. Om grafikkortet sænker sin egen fps (altså max spil fps = max hz) eller hvad. Gsync bliver lidt underlig og øger latency en smule. Frame raten må cappes til skærmens opdateringsfrekvens, ellers er systemet ubrugeligt. Angående delay, så kan man enten beregne næste frame med det samme og så forsinke den, til skærmen er klar til en ny frame, eller også kan man forsøge sig med at udskyde beregningen, så framen lige er klar når skærmen er klar til en ny frame. Fordelen ved sidstnævnte er, at timingen mht bevægelser og refresh bliver mest muligt glat og delayet er mindst muligt. Risikoen er, at hvis framen tager længere tid at beregne end forventet, så ryger FPSen på skærmen en smule ned og timingen tager skade. Spørgsmålet er, om man vil have den uundgåelige latens før eller efter den næste frame...
--
#16
Lowice
Bruger
23-10-2014 11:11

Rapporter til Admin
Hvis de fastlåser flere spil til 30fps cap og g-sync ikke virker særligt godt på 30fps, hvad skal man så med g-sync? Jeg kan forstå det for dem med en midrange pc hvor spil ikke er låst til 30fps men syntes da kun vi ser flere og flere spil blive låst til 30fps pga de sløve konsoller og så de rygter der går på nette.
--
#17
Niclas224
Junior Supporter
23-10-2014 11:44

Rapporter til Admin
#16 Det ville være spild af mange års udvikling indenfor hardware, det tror jeg godt nok ikke kommer til at ske.
--
#18
Notional
Mega Nørd
23-10-2014 13:04

Rapporter til Admin
#15 Da Nvidia udviklede G-Sync, var der ingen løsninger på markedet, der kunne synke hz og fps. AMD's tidlige proof of conept på den bærbare, var udelukkende lavet til at bevise at de kunne styre hz på skærmen. Men demoen kunne ikke mere end GCN 1.0, så video og strømsparing kan ændres, men ingen live synk af hz og fps. Svjv krte demoen kun på 43 hz og ændrede sg ikke. Den næste AMD demo var på almindelige skærme, og brugte en firmware opdateret standard skærm, så den havde hz/fps synk, men kunne kun klare 40-60hz, hvilket er ret ubrugeligt. Dvs. at almindelige scalere/skærmcontrollere, ikke kan klare denne synk i et brugbart omfang. Istedet for at samarbejde med de eksisterende skærm controller/scaler fabrikanter, besluttede Nvidia sig for at lave alt selv (Nvidia kan jo åbenbart ikke lave noget, uden at det er proprietært). Prototyper laves ofte på FPGA processorer (der er relativt dyre) og når man har en færdig løsning laver man så en ASIC (hvilket koster en del i sunk cost, men er billig at producere). Det svarer lidt til at lave en prototype af et produkt på en 3D printer. Når man er tilfreds køber man en dyr støbeform, som man så kan masseproducere produktet billigt på. Nvidia havde ingen viden om at lave scalere, så de brugte en dyr FPGA processor. Desværre for Nvidia virkede G-sync ikke da det skulle udgives, hvilket er grunden til at det blev adskillige måneder forsinket. Heldigvis var valget af FPGA godt for Nvidia, da den kan omprogrammeres. Men resultatet er stadig en meget dyr løsning, der ikke umiddelbart ser ud til at holde nogen fordele. Dog må man give Nvidia, at de udviklede den første hz/fps synk teknologi på markedet. Jeg er ikke sikker på om fps'en cappes. Det er muligvis her, de infamøse monitor ram kommer ind. Uanset bugger Gsynclidt når man kommer over max fps ift. hz, hvor latency kan spike op til 95ms. Jeg ved ikke hvad konsekvenserne er fed at cappe fsp. Der er vel nogle hardcore gamere, der påstår at de fps, der skabes, men ikke vises, er med til at få dig til at kunne skyde hurtigere og den slags. Jeg ved det ærlig talt ikke. Uanset er jeg spændt på, hvordan AS håndterer problemet. #16 Jeg tvivler på at vi får særlig mange 30 fps cappet spil fra Ubisoft, når det kommer til stykket. Jeg tror ikke de vil kunne forsvare det overfor PC folket, alene pga. konsollerne. PÅ den anden side er over 75% af al deres indkomst fra konsoller, så hve ved. Uanset vil majoriteten af alle andre spil, ikke være cappet på den måde. #17 Det er netop grunden til at Nvidia ikke vil understøtte Adaptive Sync: De vil miste al deres investering, der er lagt i GS udviklingen. Jeg forstår udmærket Nvidia fra et forretningsperspektiv, men GS er dyrere og proprietær, så det vi altid være dyrere og næppe bedre end AS. Så forbrugeren taber på Nvidias valg.
--
I7 4790K; Asus Ranger Z97; 8gb DDR3 1600; Asus 290 4GB DCUII; Wrapped In Lian Li v700wx; Dual Dell 2007wfp; Logitech diNovo Laser; Windows 8.1 B64.
#19
Notional
Mega Nørd
23-10-2014 13:14

Rapporter til Admin
Wow mit keyboard er totalt en kartoffel idag, hvilket er grunden til manglende bogstaver hist og her.
--
I7 4790K; Asus Ranger Z97; 8gb DDR3 1600; Asus 290 4GB DCUII; Wrapped In Lian Li v700wx; Dual Dell 2007wfp; Logitech diNovo Laser; Windows 8.1 B64.
#20
Martin.v.r
Semi Nørd
23-10-2014 14:41

Rapporter til Admin
? 7970 kan køre GCN 2.0,men det er lidt svært,når igen driver er lavet til det i nu :D
--
OVERCLOCK Det er lige mig
#21
Notional
Mega Nørd
23-10-2014 14:49

Rapporter til Admin
#20 Controlleren på GCN 1.0 kort understøtter ikke DiplayPort. 1.2a (og dermed fuld Adaptive Sync). Hvad mener du med at det kan køre GCN 2.0? GCN er en arkitektur. GCN 1.1 har f.eks. TrueAudio, hvilket GCN 1.0 ikke har, da det er en fysisk implementation.
--
I7 4790K; Asus Ranger Z97; 8gb DDR3 1600; Asus 290 4GB DCUII; Wrapped In Lian Li v700wx; Dual Dell 2007wfp; Logitech diNovo Laser; Windows 8.1 B64.
#22
nikolajp
Giga Supporter
25-10-2014 11:55

Rapporter til Admin
Desværre har Nvidia valgt at bruge billige display controllere på deres kort, så selv 900 serien ikke er istand til at understøtte AS (det er kun DP 1.2 kompatibelt, ikke DP 1.2a). Det er nok med vilje. Så undgår de alle de spørgsmål der kommer, vedr. hvorfor de ikke supporter det. Grunden er jo pga. deres egen Gsync løsning, men det vil irritere forbrugere at de ikkke får noget (AS) der kunne løses nemt med software.
--
#23
Notional
Mega Nørd
25-10-2014 16:12

Rapporter til Admin
#22 Præcis. Ikke nok med at Nvidia kører med proprietære løsninger igen igen, så gør de også en aktiv indsats for IKKE, at understøtte en industri standard. Jeg forstår simpelthen ikke, hvorfor forbrugerene støtter en sådan opførsel.
--
I7 4790K; Asus Ranger Z97; 8gb DDR3 1600; Asus 290 4GB DCUII; Wrapped In Lian Li v700wx; Dual Dell 2007wfp; Logitech diNovo Laser; Windows 8.1 B64.
#24
Ole
Gæst
19-11-2014 11:42

Rapporter til Admin
Cool! Glæder mig!
--
Gæstebruger, opret dit eget login og få din egen signatur.
#25
UffeBG
Monsterbruger
19-11-2014 12:17

Rapporter til Admin
#23 Enig Generalt tror jeg ikke folk altid tænke over hvilken udvikling de støtter, men mere på hvad de kan få lige nu ;)
--
ROG V gene//3570K@4400//NH-U12P//16GB Beast@2200//R9 280@1025//830 128GB//2xF3 1TB//HCG 620M//S340//U2311h//KONE pure//QCK Mass//G27@GTEYE
#26
Notional
Mega Nørd
20-11-2014 17:05

Rapporter til Admin
Samtlige Samsung 2015 4K skærme (UE850 og UE590, i forskellige størrelser), vil understøtte Adaptive Sync (Free Sync): http://gadgets.ndtv.com[...]
--
I7 4790K; Asus Ranger Z97; 8gb DDR3 1600; Asus 290 4GB DCUII; Wrapped In Lian Li v700wx; Dual Dell 2007wfp; Logitech diNovo Laser; Windows 8.1 B64.
#27
Lasse
Gæst
20-11-2014 17:16

Rapporter til Admin
#26 Ja det er jo meget godt, men vil gerne se en test hvor det bliver sammenlignet med Gsync. Vi har ikke engang set en sammenligning endnu, tyder stærkt på AMD har problemer med det eller at det ikke er så fandens godt alligevel. Det eneste AMD har demonstreret er demo'er hvor både fps og hz er låst. Det kan enhver skærm klare uden tearing. Hele problemet opstår når fps er dynamisk.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#28
Notional
Mega Nørd
20-11-2014 17:29

Rapporter til Admin
#27 Sikke noget vrøvl. Adaptive Sync er vedtaget som standard og scaler fabrikanterne er netop færdige med deres Adaptive Sync scalere. Det er dem, der udkommer i December og Januar. Det har intet med forsinkelse at gøre. Både Samsung og LG udkommer med AS skærme snart (LG vil bl.a. udgive en 34" buet 21:9 3440x1440 skærm med AS indenfor en måneds tid eller 2). Alle AMD's demoer, har været proof of concept, baseret på eksisterende scalere, med firmware updates, så de er ikke repræsentative. Den demo med to eksterne skærme havde fuld dynamisk hz synkroniseret til fps, men kun i et interval fra 40-60hz. Det er selvfølgelig betragteligt mere i de færdige versioner. Jeg glæder mig dog til reelle anmeldelser, hvor det testes snart.
--
I7 4790K; Asus Ranger Z97; 8gb DDR3 1600; Asus 290 4GB DCUII; Wrapped In Lian Li v700wx; Dual Dell 2007wfp; Logitech diNovo Laser; Windows 8.1 B64.
#29
Lasse
Gæst
20-11-2014 17:54

Rapporter til Admin
#28 Jeg glæder mig også til en sammenligning. Meget faktisk, for det bliver det der afgør om jeg skal have AMD el. Nvidia GPUer næste gang. Det bliver dog noget fra 300 serien, hvor jeg satser på de har fået styr på varmeudviklingen og wattforbruget. Men at vi ikke engang har set en fungerende skærm der gør brug af freesync virker ikkke ligefrem lovende, det kan enhver vel se. Gsync har været ude længe efterhånden...
--
Gæstebruger, opret dit eget login og få din egen signatur.
#30
Notional
Mega Nørd
20-11-2014 18:02

Rapporter til Admin
#29 Ja, det er SÅ ærgeligt, at Nvidia nægter at understøtte det pt. (Ingen Nvidia kort kan dog, da selv 900 serien bruger en DP 1.2 controller, ikke 1.2a eller 1.3). 300 serien virker meget lovende, da den introducerer HBM (high Bandwidth Memory). Vi snakker 4096 bit bus ved 4GB vram, med op til 600+GBps, så det bliver vildt. GDDR5 er dødt for alle fremtidige AMD highend kort. Og så skulle 300 vidst være 20nm. Vi får se. G-sync blev dog forsinket 6 måneder tilbage i sin tid, men nu er produktionsmodellerne med AS lavet færdige. Håber at se anmeldelser indenfor et par uger af de første (hvis den første skærm kommer til december).
--
I7 4790K; Asus Ranger Z97; 8gb DDR3 1600; Asus 290 4GB DCUII; Wrapped In Lian Li v700wx; Dual Dell 2007wfp; Logitech diNovo Laser; Windows 8.1 B64.
#31
Lasse
Gæst
20-11-2014 18:12

Rapporter til Admin
#30 Det bliver ikke 20nm, der er alt for lav et yield på den node. Det bliver 16nm FinFET næste gang. Så alt tyder på vi ser noget tonga baseret på 28nm, måske med HBM, det er langt fra sikkert. Problemet med 1st gen HBM er at max er 4GB og at ram alligevel ikke rigtigt er flaskehalsen. Vores båndbredde er høj nok, selv i 4K. Så det giver nok ikke ret meget ydelse, men det er en billigere metode end den nuværende.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#32
Notional
Mega Nørd
20-11-2014 18:36

Rapporter til Admin
#31 Yeah, TSMC har haft store problemer med 20nm. Det bliver den korteste node i mange år, men jeg mener kun det er Nvidia, der springer direkte til 16nm Finfet engang i 2016. Vi får se, når 300 serien annonceres. Fordelen er dog ikke kun en højere båndbredde, men også færre tråde i PCB'en på grafikkortet og færre loddepunkter på selve GPU kernen, der vil gøre det en god del billigere, at producere de kort. Den 512 bit båndbredde 290 serien har, er meget dyr.
--
I7 4790K; Asus Ranger Z97; 8gb DDR3 1600; Asus 290 4GB DCUII; Wrapped In Lian Li v700wx; Dual Dell 2007wfp; Logitech diNovo Laser; Windows 8.1 B64.
#33
Mads
Gæst
26-11-2014 10:03

Rapporter til Admin
Super tråd! :) Det eneste ærgerlige er at jeg nu er i tvivl hvor vidt jeg skal snuppe mig et 290 eller 290x her Black Friday, eller om man skulle være sej og holde ud indtil 3xx kort kommer på markedet. Næste skærm skal klart være med adaptive sync (Freesync). Jeg er ikke så meget for Nvidias G-sync af rent "politiske" årsager. Selv hvis det viser sig at være bedre ville jeg vælge AMD. Ikke fordi jeg som sådan ser mig selv som en fanboy, men Nvidea fortager bare flere forretningsvalg som jeg ikke bryder mig om (I forhold til AMD, som heller ikke er engle). 1440p, IPS og freesync tak :)
--
Gæstebruger, opret dit eget login og få din egen signatur.
#34
UffeBG
Monsterbruger
26-11-2014 10:12

Rapporter til Admin
#33 Ikke for at gøre en evt. ventetid indtil R9 3xx kommer på gaden endnu hårdere, men BenQ og viewsonic skulle være klar med Freesync monitor inden jul: http://www.fudzilla.com[...] Jeg ville vælge et R9 290 nu, de er billigere og i Far Cry 4 yder de forrygende, hvilket jeg også har på fornemmelsen de også vil gøre i GTA V.
--
ROG V gene//3570K@4400//NH-U12P//16GB Beast@2200//R9 280@1025//830 128GB//2xF3 1TB//HCG 620M//S340//U2311h//KONE pure//QCK Mass//G27@GTEYE
#35
Michael
Gæst
15-12-2014 18:55

Rapporter til Admin
Øhhmm... og hvor bliver de så af? Er der nogen der har set noget til skærmene? Juleshoppingen er snart slut... suk.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#36
t3Mp
Juniorbruger
20-01-2015 15:33

Rapporter til Admin
Hands on preview af Freesync/adaptive sync: http://www.fudzilla.com[...]
--
FUN car racing: Wreckfest http://nextcargame.com[...] Remember wipEout? Formula fusion http://www.r8games.com[...]
#37
Lonestar
Monsterbruger
20-01-2015 19:56

Rapporter til Admin
#36 Fint review. Jeg synes dog Linus er blevet lige en tand for meget mht. hans sponsorer ;)
--

Opret svar til nyheden: AMD Freesync Bliver Klar Til Juleshopping

Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.

Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.

Opret bruger | Login
NYHEDSBREV
Afstemning