Seneste forumindlæg
Køb / Salg
 * Uofficiel Black/White liste V2
Login / opret bruger

Forum \ Hardware \ Grafikkort

Deep Learning: Tesla V100 vs 2 RTX 8000

Af Mega Supporter The_Danish_Tiger | 20-09-2019 12:15 | 347 visninger | 0 svar
Hej holler Jeg er i gang med noget forskning hvor vi skal se på 2,3 TB billeder, og skal derfor have noget GPu der kan tygge data igennem, så vi kan få lavet en model. Vi skal blandt andet arbejde med Tensorflow og Keras. Vi har en prof server stående til forskning (kender ikke præcist hvad der er i, bliver brugt af mange, noget med 100 CPU'er og 50-100 TB SSD). Dog har der ikke været brug for nogen GPU til de andre statistiske beregninger der skal laves, derfor skal vi først have noget GPU nu. En af de programmører der sidder med programmeringen, mener at RAM er altafgørende når man skal bygge store modeller med billedgenkendelse på de 2,3 TB data vi har. Vi har et budget på 100.000 til GPU. Så hvad er pro et contra på 1 stk: Nvidia Tesla V100 32 GB RAM HBM2 vs 2 stk: RTX 8000 48 GB RAM GDDR6 i NVlink mode Er der nogen der har prøvet at lege med det? Jeg synes ikke der er den store information på nettet, og kan ikke se hvorfor Nvidia Tesla V100 skal være så dyr.
--
3570K | P8Z77-V Pro | 4x4GB PC3-12800| PowerColor HD 5870 1GB | Antec P180 B | 120GB Vertex 3 Max IOPS | 2xZalman Reserator 1 Plus | AX-850

Opret svar til indlægget: Deep Learning: Tesla V100 vs 2 RTX 8000

Grundet øget spam aktivitet fra udlandet, er det desværre ikke muligt for dig, at oprette svar som gæst.

Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.

Opret bruger | Login