Hej HOL.
Jeg sidder og spiller lidt Titanfall 2, og legede lidt med graphic settings. Der er noget der hedder "Adaption resolution FPS target". Den stod som standard på 60, altså 60 FPS. Skruer jeg den op på 120 f.eks, indstiller den automatisk grafik detaljerne, så den kan køre de indstillede FPS. Jeg prøvede også at sætte den på 1 FPS, men for at være ærlig, så har jeg virkelig svært ved at se forskel på selve FPSen ingame. Jeg kan sagtens se forskel på grafikken der bliver ændret når jeg kører FPS op eller ned. Jeg synes det er lidt underligt, for da jeg spillede CS på min gamle computer, kunne jeg sagtens se forskel på 60 og 100 FPS.
Hvad er det helt præcist der bør ændre sig, når jeg sætter den på 100 i stedet for 20 f.eks? Den eneste forskel jeg kan se med mit blotte øje, er at grafikken bliver mere detaljeret ved 20, men der må sgu da være en downside!? :)
--
Intel i5-7600K 3,8 ghz | 16GB ram | Geforce GTX 1060 6GB | Samsung 840 EVO 256 gb | MSI B250M MORTAR | CoolerMaster Silencio 352 (B) USB3.0 Micro-ATX