Sziasztok!
Több kategóriába is el tudtam volna képzelni ezt a topikot, végül e mellett döntöttem. A problémám szerintem annyira nem lesz disztribúció függő, legalábbis több kiadással is próbálkoztam, a probléma hasonló volt (Linux Mint Cinnamon 17.2, Linux Mint Mate 17.2, Ubuntu Gnome 15.04, Linux Mint KDE 17.2, Elementary OS Freya).
Szeretnék egy négy monitoros környezetet használni lehetőleg Ubuntu Gnome vagy Linux Mint Cinnamonnal. Ehhez vásároltam egy négy monitoros állványt (2 lent, 2 fent), négy darab 22"-os HD monitort, illetve két Asus GT610 2GB videókártyát. A gép, ami hajtaná, egy első generációs i7-es proci, 16GB RAM-mal.
Több mint tíz éve két monitorral dolgozom, két kimenetes videókártyára kötöttem két monitort, kiterjesztett asztallal. Korábban Windows, az elmúlt két évben Linux Mint Cinnamon/Ubuntu Gnome alatt. Teljesen jól ment minden.
Jött a gondolat, hogy jobb lenne négy monitoron, vettem két egyforma VGA kártyát (érzetre azt gondoltam, hogy így szerencsésebb, mintha két különböző típus lenne), a két alsó monitort az egyik, a két felső monitort a másik VGA kártyára kötöttem (HDMI és DVI csatlakozókon).
Ubuntu Gnome (és a többi oprendszer alatt is) az alapértelmezett nouveau driverrel "lett" három monitorom, az alsó kettő és a bal felső. Eléggé sokszor belassult, egy ablak átmozgatása is döcögős volt. A negyedik monitort sehogy sem sikerült életre keltenem, olykor kaptam ilyen - és hasonló - hibaüzenetet: "Could not switch the monitor configuration - could not set the configuration for CRTC 64"
Ekkor jött a gondolat, hogy felteszem az nVidia zárt driverét, azzal biztosan jobban megy a dolog. Több verzióját is próbáltam a "Zárt illesztőprogramok" ablakban, nem volt változás: az első kártyát látta, az alsó két monitorom tökéletesen működött kiterjesztett asztallal, a felső kettő jelet sem kapott.
Az lspci szépen mutatta a két kártyát.
Rákerestem "linux quad monitor"-ra a neten, amiket találtam, az mind komoly tervezésre (?) - nVidia Quadro és játékra szánt - nVidia GFX, eleve négy kimenetes videókártyákkal volt meghajtva. Ezen kártyák árai olyan 80e Ft felett mozognak. Elhiszem, hogy jó kártyák, de ha egy tizenötezres kártya (nVidia GT610) meghajt két monitort HD felbontásban, akkor azt gondolnám, hogy még egy kártya szintén meg tud hajtani két monitort. Egyelőre ezt linux alatt nem sikerült elérnem. Már-már hajlottam arra, hogy egy olcsóbb laptop áráért vegyek egy videókártyát, amikor gondoltam kipróbálom még Windows alatt is.
Windows 8.1-et telepítettem, a telepítés után feltéve a legújabb nVidia drivert, tökéletesen be tudtam állítani, hogy melyik monitor hol helyezkedik el a többihez képest a szoftverben és tökéletesen lekezeli a négy monitort a 3840x2160-as felbontásban, négy monitor által biztosított munkafelületet.
Na itt elbizonytalanodtam, hogy valóban meg akarom-e venni azt a drága VGA kártyát... mivel hardveresen biztosan működne így a konfiguráció, hiszen Windows alatt megy.
Mit tudtok ajánlani, mit nézzek meg, mit hogyan állítsak be, hogy linux alatt is menjen a négy monitoros asztal?
- 3965 megtekintés
Hozzászólások
Sohasem csináltam ilyet, csak két monitornál szórakoztam azzal saját készítésű live Linuxon, hogy ha a fizikai monitorok éppen rossz sorrendben vannak, akkor felcserélem egy billentyűnyomásra a bal és jobb monitort.
Ezek alapján azt mondom, erősen tanulmányozd az xrandr
parancsot, igen kellemesen hajlamos működni, de az sem kizárt, kénytelen leszel xorg.conf
file-t írni. Attól, hogy az X szerver egész jól detektálja a hardware környezetét, s konfigurálja magát, ahogy helyesnek gondolja, még lehet xorg.conf
-ot írni, felülbírálhatod mindazt, amit az X gondol a világról. Természetesen a logok tanulmányozása - például a /var/log/Xorg.0.log
- elengedhetetlen.
Szerk.: Fedorán az xrandr
a xorg-x11-server-utils
csomagban van.
tr '[:lower:]' '[:upper:]' <<<locsemege
LOCSEMEGE
- A hozzászóláshoz be kell jelentkezni
Vegyel ilyesmit, aztan jo'van:
http://www.amazon.com/Sabrent-1920x1080-1600x1200-DisplayLink-USB-HDMI/…
Irja, hogy mukodesre lehet birni Linux alatt is: Open source available for Linux and other platforms--for advanced users only because of manual xorg.conf editing. USB graphics devices with different chipset drivers (MCT, SMSC, DisplayLink, etc.) should not be mixed on the same system.
- A hozzászóláshoz be kell jelentkezni
Hátha segít az elindulásban:
https://wiki.archlinux.org/index.php/NVIDIA#TwinView
Ajánlom figyelmedbe a Mosaic mode-ról írtakat. (Mondjuk furcsa, hogy egyfelől megad egy négymonitoros parancssort, másfelől meg leszögezi, hogy az nvidia+linux kombóban (SLI nélkül) három monitor a max, "by design".
Kíváncsi vagyok, a parancssor működik-e neked.
- A hozzászóláshoz be kell jelentkezni
"nvidia+linux kombóban (SLI nélkül) három monitor a max,"
Én úgy tudom /kártya.
---------------------------------------------------------------
Ritkán szólok hozzá dolgokhoz. Így ne várj tőlem interakciót.
- A hozzászóláshoz be kell jelentkezni
Hátha segít az elindulásban:
https://wiki.archlinux.org/index.php/NVIDIA#TwinView
Ajánlom figyelmedbe a Mosaic mode-ról írtakat. (Mondjuk furcsa, hogy egyfelől megad egy négymonitoros parancssort, másfelől meg leszögezi, hogy az nvidia+linux kombóban (SLI nélkül) három monitor a max, "by design".)
Kíváncsi vagyok, a parancssor működik-e neked.
- A hozzászóláshoz be kell jelentkezni
Hátha segít az elindulásban:
https://wiki.archlinux.org/index.php/NVIDIA#TwinView
Ajánlom figyelmedbe a Mosaic mode-ról írtakat. (Mondjuk furcsa, hogy egyfelől megad egy négymonitoros parancssort, másfelől meg leszögezi, hogy az nvidia+linux kombóban (SLI nélkül) három monitor a max, "by design".)
Kíváncsi vagyok, a parancssor működik-e neked.
- A hozzászóláshoz be kell jelentkezni
quadro nvs450 4 kimenet van, 80E. vagy az 510ns asszem az már picit drágább.
pöttyet stabilabb és gyorsabb a quadro egy geforce-al szemben. már 2 képernyőnél is nagyon lehet érezni a különbséget.
- A hozzászóláshoz be kell jelentkezni
Köszönöm mindenkinek a segítségét!
A külső átalakítós megoldást nem mertem bevállalni, azt vettem alapul - talán helytelenül - hogy a linux alatt viszonylag régebb óta elérhető a gyári nvidia driver, ha azzal nem ment egyből, akkor mire számíthatok támogatottság terén az USB->DVI átalakítóval?
Az NV450-est én is néztem, már majdnem vettem is korábban, de akkor láttam, hogy a felbontása nem elég nagy. Nem tudja a 4K-t, így a monitorok nem mehetnének a natív HD felbontásban. Nagyobb Quadro pedig elég drága. Még az nvidia GTX960-as kártyát néztem, az is olyan 80 körül lenne (amin van elegendő kimenet is)+ 3 darab Display port -> DVI átalakító, ez is majd' egy tizes...
Végül sikerült megoldanom a gét GT610-es kártyával. Az nvidia-settings alkalmazással további lehetőségeim nyíltak - ezt korábban nem ismertem linux alatt, csak feltettem a drivert és a hagyományos "Kijelzők/Screen" alkalmazásban állítgattam. Megismerkedtem egy új fogalommal, a Xinerama-val, kicsit még játszani kellett vele, de végül elértem a kívánt eredményt. Négy "X Screen"-t kellett indítanom ahhoz, hogy ha maximalizálnék egy ablakot, akkor az csak az adott monitoron legyen maximális, ne pedig mind a négyen, vagy két egymás melletin.
A sebességet tudja fene... mivel böngészésre, SSH ablakokra kell leginkább, arra látszólag tökéletes. Egy HD filmet is lejátszik úgy az egyik monitoron, hogy mellette bármit csinálok, akkor is teljesen jó minden. Egyszerre két HD filmet lejátszani viszont már látható FPS csökkenéssel tud. Ez a felhasználás nem túl életszerű számomra, úgyhogy egyelőre tetszik. Pár nap után majd biztosan jobb "képem" lesz a használatról. Vélhetően nem lenne ilyen problémám egy 80...120e Ft-os kártyával, a közeljövőben kiforrja magát, hogy szükség lesz-e rá.
Mivel Linux Mint Cinnamon alatt csináltam meg végül, más kiadásokat utána nem nézegettem. Így nem tudom, hogy ez egyedi eset-e ennél a kiadásnál, vagy sem, de hátha a később erre tévedőnek hasznos lehet: az nvidia-settings alkalmazással ki kell menteni xorg.conf fájl néven az összekattintgatott beállításokat a /etc/X11 könyvtárba. Korábban itt (és máshol sem) nem volt ilyen nevű fájl, ez engem eléggé megzavart az elején. Majd az "Apply" önmagában nem elég, a gép újraindításával betölti az xorg.conf fájlt és már a beállított módon működik.
Még egyszer köszönöm mindenkinek!
- A hozzászóláshoz be kell jelentkezni
Persze, hiszen a xorg.conf nem kötelező, de ha van, akkor használja az X szerver. Újraindítani nem kell a gépet, elég csak az X szervert újraindítani. Például konzolra váltasz, belépsz root-ként, majd ott:
init 3
init 5
Aztán bejelentkezel, örülsz. Minek a reboot? Csak az X-et konfiguráltad.
tr '[:lower:]' '[:upper:]' <<<locsemege
LOCSEMEGE
- A hozzászóláshoz be kell jelentkezni
OK, ez jogos...így biztosra mentem :D
- A hozzászóláshoz be kell jelentkezni
Nálam elég csak kilépni a graffelületen *ubi alatt, majd vissza és életbe lépnek a változtatások. Merthogy itt kilépéskor újraindul az xorg. Így az új conf szerint indul. De lehet más distrón nem így megy.
---------------------------------------------------------------
Ritkán szólok hozzá dolgokhoz. Így ne várj tőlem interakciót.
- A hozzászóláshoz be kell jelentkezni
Ez az, amit még sohasem néztem. Nyilván ellenőrizhetném a pid-et, csak még nem tettem meg. Az init 3; init 5 esetén viszont biztosam újra indul.
tr '[:lower:]' '[:upper:]' <<<locsemege
LOCSEMEGE
- A hozzászóláshoz be kell jelentkezni
A sebességhez: Elvileg az nvidia-settingsben nyomon tudod követni a grafkártya terheltségét. A gpu* sorban. Én anno teszteltem a 210-esemet. 3 fullhd filmet vitt szimultán, ha hw gyorsítást használtam (vdpau). A sima ablakok meg proci kérdése. Nem a kártya lesz a szűk keresztmetszet.
Azt nagyon jól tetted hogy készítettél conf fájlt. Ugyanis nélküle a legegyszerűbb auto-detectel indul.
Viszont egy jótanács: ha beállítasz bármi mást a programban, (pl digital vibrance) azt el kell mentened az alján. Betölteni rendszerinduláskor a "munkamenet indítás -> automatikusan elinduló programok"-ban létrehozott nvidia-settings -l paranccsal tudod.
---------------------------------------------------------------
Ritkán szólok hozzá dolgokhoz. Így ne várj tőlem interakciót.
- A hozzászóláshoz be kell jelentkezni
Köszönöm, megnézegetem ezeket.
- A hozzászóláshoz be kell jelentkezni
Mivel valamelyest a témához kapcsolódik, itt próbálok kérdezni először ezzel kapcsolatosan :)
Csak az érdekesség kedvéért megnéztem az nVidia Quadro NVS510-es kártya paramétereit.
Az ára bruttó 130...150e Ft között mozog kb.
Négy monitor köthető rá.
Van 192 CUDA magja
maximális felbontása 3840x2160 (4K)
35W-ot fogyaszt maximum
Link: http://www.nvidia.com/object/nvs-510-graphics-card.html#pdpContent=2
Aztán megnéztem a GT610-es kártya adatlapját, összehasonlításként.
Az ára bruttó 15e körül volt.
2 monitor köthető rá.
Van 48 CUDA magja
maximális felbontása 2560x1600
30W-ot fogyaszt maximum
Link: http://www.geforce.com/hardware/desktop-gpus/geforce-gt-610/specificati…
Két GT610-es CUDA magja 96, így az NVS510-esnek "csak" kétszer ennyi van. Tudom, nem minden a CUDA magszám, de...nem aránytalanul drága az 510-es?
Viszont amit egyáltalán nem értek: az NVS510-es maximális felbontása a 3840x2160, ez négy HD monitor natív felbontása, a 4K. Azaz ha rákötök 4 darab HD monitort, akkor éppen megfelelő felbontást ad. Tehát a négy kimenetére összesen tud ekkora felbontást.
De hogy jön ki akkor a GT610-es 2560x1600-as maximális felbontása? Két monitort lehet rákötni, mindkettőt HD felbontásban kezeli, így a jelenlegi tudásom alapján ez 3480x1080-as felbontás kellene legyen.
Mit nem tudok jól? :)
- A hozzászóláshoz be kell jelentkezni
A max. felbontás per port értendő.
- A hozzászóláshoz be kell jelentkezni
Köszi, ezt nem is gondoltam volna...
- A hozzászóláshoz be kell jelentkezni
azert az NVS510-töl sem szabad csodakat varni, hasznaltam 2*4k + 2*2k setupban, mar a desktop is elegge megterheli, mondjuk xubuntu-val jobb a helyzet mint unity-vel de elöbb vennek valamilyen quadro kartyat.*
szerk.: ez is quadro kartya, ugy ertem hogy elöbb vennek egy ilyet:
Quadro K1200 -ez sokkal jobban bejött nekem
- A hozzászóláshoz be kell jelentkezni
Mit gondolsz, gondoltok a GFX szériáról? Olykor azért játszanék is vele talán, akár "redukálva" egy monitorra. Ezek a Quadro kártyák mennyire alkalmasak játékra?
A K1200-as kártya ára 130e Ft, van 512 CUDA magja.
A GFX960-as kártya ára 80e Ft, van 1024 CUDA megja.
Ilyen szinten abszolút nem értek a videókártyákhoz, nem értem ezt a fordított arányosságot. Laikusként azt látom, hogy kétszer annyi CUDA magot kapok a K1200-as 60%-os árért. Miben lehet jobb a Quadro K1200-as a GFX960-ashoz képest
- A hozzászóláshoz be kell jelentkezni
Sajnos a GFX-el nincs tapasztalatom, csak ezzel a ket konkret kartyaval.
Nalunk az volt a konkret eset hogy a 4 monitoros setupnal panaszkodtak a fejlesztök hogy nem elég a vas (NVS 510 volt ekkor a gépekben), és utánanéztem hogy milyen 4 DPs NVIDIA van még a piacon és jókat olvastam a K1200-rol amit kiprobaltunk es sokkal jobban teljesit.
itt erdemes benchmarkot nézegetni:
http://www.videocardbenchmark.net/high_end_gpus.html
csak itt meg pont gfx-ek nincsenek, de hátha van valakinek nagyobb tapasztalata velük.
- A hozzászóláshoz be kell jelentkezni
Értem, köszönöm!
Ha valakinek esetleg még van tapasztalata, szívesen várom.
update: megnéztem az általad ajánlott oldalt, van GFX széria rajta.
Geforce GTX 960: 5982 G3D Mark (200$)
K1200: 2903 G3D Mark (300$)
A CUDA megok alapján valami ilyesmire is számítottam, így egyre jobban nem értem, hogy a Quadro kártyák mitől ilyen drágák a GFX kártyákhoz képest...
- A hozzászóláshoz be kell jelentkezni
"a Quadro kártyák mitől ilyen drágák a GFX kártyákhoz képest..."
Azért ezek nem csak cuda magokban térnek el. Azt biztosan tudom, hogy a biosuk is más. Szerintem más az energiagazdálkodás is. Meg talán külön (cad/cam/egyéb) gyorsító firm is van bennük. Bár ez csak sejtés.
---------------------------------------------------------------
Ritkán szólok hozzá dolgokhoz. Így ne várj tőlem interakciót.
- A hozzászóláshoz be kell jelentkezni
imho, afaik
a Quadro alapvetően nem játékra, hanem professzionális/munkahelyi használatra készült: ECC-memória, több bit/színcsatorna, több monitor/nagyobb felbontás támogatása, túltervezett hűtés és az ettől remélt extra stabilitás/hosszabb élettartam jellemzik.
/imho, /afaik
- A hozzászóláshoz be kell jelentkezni
Értem, köszönöm szépen!
Ez esetben ha nem szeretnék nyomdai előkészítéssel, kiadvány szerkesztéssel, tervezésével kapcsolatos alkalmazásokat futtatni, ellenben olykor egy kis játék jó lenne, valamint számít az ár is, akkor a GFX sorozat kártyáival jobban járok, mint a Quadroval. Jól gondolom?
- A hozzászóláshoz be kell jelentkezni
quadro nem jó 3D-s játékokra.bűn lassú.
a geforce-oknál iszonyat nagy a szórás, mer ugye ahány gyártó annyi féleképpen eltérnek, túlhajtják,stb.
pl. nekem a 9800gt-nek tudnia kellett volna a cuda támogatást blender-ben papíron, hát nem tudta, csak nagy hekkelések árán erős korlátokkal ment.quadro 600 meg mindent tud hekkelés nélkül.
a több cuda mag nem minden, ha nem használja ki rendesen. a quadro sokkal megbízhatóbb.
egy cpu-s példa: amd fx4300 vs i3 4170, hiába a 4mag, a 2mag agyonveri mert támogatja egy zsák coftver!:D
- A hozzászóláshoz be kell jelentkezni
Ha még érdekes, kezd azzal, hogy lekérdezed a monitorjaidat:
xrandr --query
----
올드보이
- A hozzászóláshoz be kell jelentkezni
Persze, mindenképpen érdekes, az irodában van a gép, legközelebb hétfőn tudom lefuttatni, de megnézem, köszönöm!
- A hozzászóláshoz be kell jelentkezni