CPU vagy GPU?

Fórumok

Sziasztok, készülök összerakni egy PC-t munkához, ez lesz az első konfigom, amit magam rakok össze.
A következő a dilemmám:
Processzornak Intel Skylake i5 6600 vagy i7 6700 közül választanék.
GPU-nak nVidia GTX960 vagy GTX970 közül választanék.
Mindkét esetben kb. 40e Ft az árrés, és csak az egyikből szeretném a drágábbat.
3D renderelésre, képelemzéshez Unity / Oculus Rift, C# és Python fejlesztéshez használnám. Unity / C#-on kívül minden Linuxon menne, szóval ez is szempont, ezért szeretnék inkább nVidiát.

+ bónusz kérdés: szerintetek Skylake helyett valamilyen AMD jobban megérné?

Köszi!

Hozzászólások

"3D renderelésre, képelemzéshez Unity / Oculus Rift"
Ezzel szerintem megpecsételted a dolgot: mindkettőből a nagyobbat:)

// Happy debugging, suckers
#define true (rand() > 10)

AMD-nek sajnos jelenleg nincs ilyen szinten versenyképesnek mondható processzora.

Az i5 6600 és i7 6700 magteljesítménye megegyezik. Ha a szoftvered tuti fel tud bomlani > 4 párhuzamos részre, akkor az i7 gyorsabb. Ha 4-nél nem több kiterhelt szálon fut, akkor nem gyorsabb.

GPU: melyiket tudja jól használni a renderelő szoftver?
Én egy tesztet végeznék. Először nem vásárolnék videókártyát, a prociban levőt használnám és megnézném, mennyi idő alatt renderel egy konkrét feladatot a processzor.
Ezután kölcsön videókártyával megnézném, ténylegesen jelentősen gyorsít-e (pl. fele időre)?
Ha jelentősen gyorsítja a renderelést az adott típus, csak akkor vásárolnám meg azt a videókártyát.

GPUnal egy 960 es egy 970 kozott azert eleg sok kulonbseg van

Olvass utána, hogy a használt programok melyiket támogatják. 3D renderelő szoftverek általában rendelkeznek egy támogatott videókártya listával, és van is amit kimondottan ilyenekhez terveznek, használnak. Ugyanez elmondható talán CPU-ról, hogy egyes utasításkészleteket jobban ki tudnak használni. Pl. felesleges lesz valószínű a hardveres titkosítás és a virtualizáció, de lehet, hogy lesz olyan CPU, ami jobban megéri.
Renderelést általában lehet elosztott rendszereken jól skálázni, így akár gondolkodhatsz ilyenben is.

AMD-t felejtsd el sajnos. Én inkább bevállalnám az i5-öst egy quadro kártyával, de annyira nem vagyok benne ebben a témában, nézegess teszteket, de az biztos, hogy ha munkára kell 3d, arra nem geforce-t szoktak venni.

Fejlesztéshez ugyan főleg java-s tapasztalatom van, de ott eddig az jött le, hogy az ssd számít leginkább, a cégnél i7 van hdd-vel és 16 giga rammal, de a kis 1.3 ghz-es ulv i3-asom 4 giga rammal de ssd-n alkalmasabb fejlesztésre. Szóval ha eddig nem terveztél ssd-t, még egy gyengébb proci árán is vegyél.

Köszönöm az eddigi válaszokat, tudtam, hogy a HUP-ra kell jönnöm!
De honnan szerezzek kölcsön videokártyát?

Szia,
Csak mielőtt beleszaladnál abba, ami miatt sokan csalódtak az nVidia 970-ben: kicsit különleges a memória kezelése.
Röviden a gond annyi, hogy az alsó 3,5 Gb VRAM-ot nagy sebességgel éri el, míg a felső 512Mb-t kissé lassabban. Sajnos nem tudom, hogy az Occulus VRAM-ra, vagy nyers render sebbeségre hat ki, de jobb, ha tudsz erről a nehézségről.
Részletesebben ez az ipon cikk kifejti neked: https://ipon.hu/hir/a_memoriakezelesi_problema_a_gtx_970_nel_es_ami_mog…
Ezek mellett feldobnám a világ legbutább kérdését, de nem lehet, hogy egy AMD is megfelelne neked a célra? Én személy szerint egy HD 6970-et használtam sokáig megelégedve - compiz kocka pörgött kellemesen, és a natív linuxra írt játékokkal sem volt gond. Egyedül egy steam-es port volt glitches, de ezenkívül minden probléma nélkül ment - mondjuk mindezt folyamatosan aktualizált fglrx-el, az opensource driverrel nem tettem túl sok kísérletet.
Természetesen nem merem állítani, hogy linux alatt az általad szabott igényeknek megfelelhet, de egy átgondolást szerintem megérhet.
Üdv,
LuiseX

Szia,
Nem, ezt nem viharnak szántam, hanem információnak :) Nincs bajom az nVidiával alapvetően nem rossz kártyák ( még a 970 sem, csak érdemes tudni erről a limitációjáról. Ez nem szégyen, vagy ócsárolás, hanem a kártya tulajdonsága... ), ellenben nem tagadom, személy szerint az AMD-t preferálom.
A HD6970-es leírás tényleg works4me volt, de talán, pont így is írtam le. Legalábbis az "én személy szerint" kezdettel nem azt mondtam, hogy mindenkinek működik, hanem azt, hogy nekem bevált. És, ezzel nem megyőzni szándékoztam, hanem személyes tapasztalatot leírni.
Azzal pedig egyet értek, hogy a GCN jobb választás, már csak amiatt is, mivel fejlettebb architektúra, és bár a legutolsó modellek mindig döcögösek linux alatt, azért a GCN nem ma jött ki.
Sajnos, erről nem tudok nyilatkozni, mivel a jelenlegi R9 380-anamat még nem pörgettem meg linux alatt, az pedig szerintem nem érv önmagában, hogy eddig még nem okozott kernel panicot :) Gondolom, sejted mire gondolok :)
( A random steam port, ami gondot okozott a Costume Quest nevű kis fun játék volt, ellenben ugyanettől a fejlesztőtől a Brutal Legend gond nélkül ment, ha érdekel. OpenArena és hasonlókat nem említettem külön. Általában a natív, nem wine alapú cuccok szépen mennek... De, gondolom ezt tipikus works4me, ami számodra nem érv :) )
Üdv,
LuiseX
U.i: Ha ezen post értelmezéséhez is kell támogatás, kérlek szólj.

Nekem is radeonom van, sőt szerintem az nv driver linuxon idegesítő, mert gyakorlatilag kénytelen leszel a distró saját kernelét használni, legalábbis opensuse-n igen. HD7850 van az tökéletes, HD5xxx-es radeonnal voltak gondok öcsémnél, a beépített 4xxx-el meg nagyon sokat szívtam a régi lapomon. A steames dolgot tényleg félre értettem, átsiklottam azon, hogy ezt, egy játékra érted.

Amikor egy GPU vramjának majd 90%-a tele van akkor az, hogy lassabban éri el azt az 10%-ot nem nagyon fog számítani. Sőt a kártyák 95% sose lesz memória limites, mert annyit pakolnakra a memóriás urban legend miatt.

Szia,
Akkor sejtheted, hogy nem viccből ajánlottam alternatívának az AMD-t :)
A régi hírükkel ellenben legtöbbször már egész kellemesen mennek linux alatt. Anyámnak pl. egy 5770-t raktam win/linux páros mellé, manapság már az is gördülékenyen megy.
Korábban egész szép skálát használtam, és tudom, hogy a régi 9000-esekkel elég sok fájdalom volt, de még a 3000-es széria is sok nyűgöt tud okozni még ma is ( Hybrid Graphics, ami azzal debütált).
A 4000-esek azért mára már kiforrottak, csak AMD-nél mindig ott az a probléma, hogy a legújabb szériák támogatása át tud csapni egy félresikerült viccbe.
Volt szerencsém a 3000-es szériás Hybrid Graphics technológiához, és... nem volt túl kellemes, még az se volt determinisztikus, hogy az ati-config éppen melyik kártyát vette 0-nak. Bár, sokat javult azóta a technológia hw-es implementációja, de az akkori laptopommal nagyon sokat szívtam.
A VRAM megtellését pedig épp az Oculus Rift miatt mondtam, tekintve nem egy szokványos felhasználási terület. A működéséhez egy látható képkockához 2 képkockát kell lerenderelni.
Sajnos, ennek a valóságba vetett implementációjában nem vagyok biztos, tekintve lehet úgy is megoldani, hogy két relatíve független render szál megy (magas VRAM+GPU intenzív feladat lesz), vagy azonos scene eltolt kameráját rendereli le ( ekkor "csak" GPU intenzív lesz a feladat ).
Ha csak játszani szerette volna (os-től függetlenül) , vagy 2-3 fullHD monitort meghajtani, akkor meg sem említem ezt a tényt, de ebben az esetben erős limitációt és váratlan kellemetlenségeket szülhet.
Üdv,
LuiseX