Har han puttet stikket i Bundkort eller GPU?
Den burde ramme 300FPS i CS:go, jeg sidder med samme system, dog bare en i7-6700k (uden OC).
--
Macbook pro 13" i5 touchbar
144hz xl2411t // Blue yeti black edition // Blue MoFi
Ja og som sagt det fejler ikke noget hos mig.
--
Intel I7 8700K @ 5GHz
2x8GB RAM DDR4 3000 Corsair vengeance
Inno3D Geforce GTX 1080 TI
4TB Seagate Barracuda, 3 x Samsung evo 850 500GB
#2 nej, men hvis du sætter skærmkabel i GPu og han hjemme hos ham, smider det i motherboard, så er det klart der er dårligere performance, når gpu'en ikke bliver brugt.
Netværket burde ikke have indflydelse på FPS, men hvis harddisken arbejder hårdt (antivirus maybe), kan det også give drops.
--
Macbook pro 13" i5 touchbar
144hz xl2411t // Blue yeti black edition // Blue MoFi
--
Sidst redigeret 19-01-2019 21:19
Hvis i tester setup begge steder, med helt samme software åben og alle kabler sidder samme steder, og der stadig er forskel på FPS. Så fatter jeg ihvertfald ikke en dyt, evt tjek spillet uden internetforbindelse og se om fps stadig er anderledes.
Der burde ikke på nogen måde kunne være forskel, hvis man tester i identiske tests. Men står den op af en radiator et sted og bliver kogende, så throttler den med sikkerhed og giver lave fps. Sætter du DVI-D kabel i Bundkort istedet for GPU, så performer den også dårligere, Står harddisken og skanner, downloader whatever så ændre det også på FPS.
Der burde umuligt kunne være en forskel internet eller ej.
--
Macbook pro 13" i5 touchbar
144hz xl2411t // Blue yeti black edition // Blue MoFi
Mest sandsynligt at skærmkabel sidder i Motherboard i stedet for gfx kort som nævnt... ??
--
Det lyder som om den af en eller anden grund ikke bruger 1060 kortet, men det indbyggede i cpu'en - prøv at gøre sådan her: Nvidia control pannel > 3D settings > Manage 3D settings > Preferred graphics processor: Nvidia processor.
--
#6
Det er en stationær, ikke en bærbar. Enten kører den på Intel eller Nvidia, og det er betinget af hvor henne skærmkablet sidder, ikke en software indstilling.
--
Veni, Vidi, Vici.
dimidium facti qui coepit habet
faber est quisque fortunae suae
det mest oplagt er dat den blvier sat op forkert.
det enste forkert opsetnign der kan medfore der er hvis han saetter skarmkable i sit inboard/die grafifkort udgang frem for hans dedikeret graffikort
tl::DR hvad alle andre sagde
--
Sven Bent - Dr. Diagnostic
www.TechCenter.[...] - Home of Project Mercury Han har løst det. Tilsyneladende var det kablet til hans skærm der var problemet. Han skiftede fra det defekte HDMI til DP og nu køre det som smurt.
--
Intel I7 8700K @ 5GHz
2x8GB RAM DDR4 3000 Corsair vengeance
Inno3D Geforce GTX 1080 TI
4TB Seagate Barracuda, 3 x Samsung evo 850 500GB
#7 Ikke helt korrekt, du kan godt bruge dit dedikerede GPU igennem onboard portene, næsten uden at miste performance. Så hvis man vil spare på strømmen er det en mulighed.
--
#10
Desktop bundkort har som udgangspunkt ikke en muxer chip, så du får ikke dedikeret performance fra din onboard udgang.
--
Veni, Vidi, Vici.
dimidium facti qui coepit habet
faber est quisque fortunae suae
#10 Hvordan sparer man lige strøm ved at køre GPUens output ud via onboard-porten? Lyder lidt som en and ;-D
--
Jeg svarer kun til nøds på indlæg fra gæster...
--
Sidst redigeret 21-01-2019 12:12
#11 Okay, så sig mig lige hvorfor man kan vælge GPU i "Graphics Settings" (i Windows 10) til forskellige applikationer?
https://www.howtogeek.com[...]
#12 Tjah, hvis ens GPU er meget strømbesparende i idle og man bruger sin IGPU i stedet som bruger mindre strøm, så er der jo noget at spare.
--
Sidst redigeret 21-01-2019 13:30
#13
Jeg tror han reffere til at du skrev at man kunne bruge sin dGPU igennem onboard porten. Saa sparede man stroem.
Intet du skrev der indbefattede at bruge iGP.
Din forklaring manglede en faktor hvorfor det er forvrirrende/forkert
--
Sven Bent - Dr. Diagnostic
www.TechCenter.[...] - Home of Project Mercury #13
Fordi du kan skifte imellem dem, men der er ingen direkte kommunikation mellem de to GPU'er uden en muxer chip. Multi-GPU setups er ikke nyt, heller ikke for Windows.
--
Veni, Vidi, Vici.
dimidium facti qui coepit habet
faber est quisque fortunae suae
#14 Men man kan jo netop godt bruge sit dGPU igennem sit onboard outputs.
Linus Tech Tips har f.eks. gjort det af flere omgange.
https://youtu.be[...]
https://youtu.be[...]
#15 Du skriver i #7 at det er betinget af hvor skærmkablet sidder, jeg prøver bare at sige at det er muligt at få tæt på fuld performance af sit dedikerede grafikkort igennem det integrerede output.
--
en 10er på at han havde kablet i bundkortet! :D Det gjorde min nevø også! (them fortnite-plebs)
--
4770K|Maximus VI HERO|16GB Ripjaws 2133 CL9|
ASUS 1080Ti STRIX OC|ACER 271HU/DELL U2713HM
Samsung 850 EVO 1TB
#16
ja det er vi enige om er en mulighed
men det var ikke den del der blev stille spoegsmaals tegn ved i #12
han spurgte ind til hvordan du spare stroem ved at kore dit Dgpu igenne dit onbord udgang.
hvilket er korrekt at det goer man ikke
men men goer det naar man skifter over til at koer ep iGPU istedet. hvilket manglende i din forklaring.
Din forklaring var halvfaerdig hvorfor den nemt var misinformerende som #12 udpegede
--
Sven Bent - Dr. Diagnostic
www.TechCenter.[...] - Home of Project Mercury #18 Det kan jeg godt se nu, ja man sparer selvfølgelig ikke noget den vej rundt :-)
--
Sidst redigeret 21-01-2019 19:08
#19
mine erfaring med det er at det giver enormt maengde problemmer med FFXI for mange bruger der har hybrid loesnig ( Dgpu+IGPU) fordi nvida driver ikek opfatter ffxi som 3d og derved koere over Igpu'en GRRRR.
og saa mener jeg at have lest ( ikke testet) at der er lidt performance tab fordi framebuffer skal ovefore fra dGPU til IGPU nar det drejer sig im stationare.
men det er lang tid sinde kan vare forbedre. kan vare jeg husker forkert
--
Sven Bent - Dr. Diagnostic
www.TechCenter.[...] - Home of Project Mercury