Sziasztok!
Egy AMD Ryzen-es processzorral meghajtott kijelzőt használok, és kevés lett a kimenet, így túrtam egy kártyát és betettem a gépbe. Mikor becsavaroztam, akkor ismertem fel, hogy amit betettem, egy nVidia kártya. Őszintén megmondva, nem is számítottam rá, hogy paralel lesz mind a kettőn kimenet. Tényleg nem tudom, miért, ám a múltból az derengett, hogy vagy nVidia, vagy ATI... Az és kapcsolat hiányzott. Teljes meglepetésemre működik a két kártya két különböző kijelzőn. Oké, megnyugtattam magam, hogy két modul, két hardver, mint a hálókártyáknál, úgy működhet itt is. Még azt is feltételeztem, hogy a két asztal között az alkalmazások átrendezhetők.
Akkor kezdődött a meglepi, mikor egy alkalmazás "félúton" az egyik és a másik kijelzőn is, a maga megfelelő részével megjelent... Ezt még megfejelte az is, mikor egy 3D támogatott alkalmazást "vágtam" kétfelé.
Egy 3D-s játék futtatásakor figyeltem az nVidia Settings-en és a CoreCtl alkalmazásokon keresztül, mindkét kártya terhelése jól érzékelhetően megnő.
Ezt technikailag hogyan oldja meg a Linux? Sok idő lenne, ha a két kártya drivere beszélne össze - érzésem szerint.
Hol dől el a matek, melyik kártyának, mit kell kiszámolnia?
Mi zajlik olyankor, mikor az egyik kártyából elindul pl. egy töltény, és a másik kártyára kötött kijelzőn jelenik meg?
Sok kérdés merült fel bennem, amikre nagyon szeretném a válaszokat, ebben kérem szépen a segítségeteket.
Az biztos, hogy örülök, hogy felfedeztem a spanyol viaszt. Egy képernyőkép a két kijelzős megjelenítésről:
- 795 megtekintés
Hozzászólások
szerintem ugy mukodhet, hogy egyik gpu szamolja a 3d-t, majd a masik kartya videomemoriajaba atmasolja azt a kepet, amit annak kell megjelenitenie.
ez segithet a valasztasban:
neked aztan fura humorod van...
- A hozzászóláshoz be kell jelentkezni
Nekem is ilyen gyanúm van, vagy valami hasonló. Úgy tűnik, itt az AMD számol:
$ glxinfo|egrep "OpenGL vendor|OpenGL renderer"
OpenGL vendor string: AMD
OpenGL renderer string: AMD Radeon Graphics (renoir, LLVM 15.0.7, DRM 3.47, 5.19.0-28-generic)
Ennek ellenére 3D-s műveletnél az nVidia is dolgozik rendesen.
READY.
▓
- A hozzászóláshoz be kell jelentkezni
Nekem is hasonló dual GPU-s gépem van, egy ASUS TUF A15 gaming laptop, de Linux alatt szigorúan csak a prociba (Ryzen 6800H) integrált Radeon 680M GPU-t használom, az opensource amdgpu + xf86-amdgpu driver + mesa + radv Radeon Vulkan + libva mesa driver felállásban mindent visz bugmentesen (a Noveau blacklisten van a modprobe.d mappában, illetve az NV GPU ki van kapcsolva). Nekem elég, azokhoz a játékokhoz is, amiket Linux alatt játszok. Ha nem elég, akkor átbootolok Win10-re, és ott tudom használni a gépben lévő RTX3050Ti-t is. De ez a 680M integrált GPU is elég betyár (RDNA2 alapú), pont most néztem Crysis-szal, Linuxon a 680M + DXVK Protonnal FullHD high beállításokkal kb. 80-90 fps-t nyom, Windows alatt RTX3050Ti-jal konstans 144 fps (V-sync-kel, kihajtja natívan a kijelzőt), very high-jal is 144 fps (menne feljebb is, ha a V-sync nem lenne engedélyezve). Nekem tökre elég a 80-90 fps ennél a játéknál, tearing sincs, mivel FreeSync-es kijelző. Az asztali gépemben egy AMD RX570 van, egy 75 Hz-es FreeSync kijelzővel, nekem az is elég. Nyilván az újabbaknál nagyobb lehet a különbség az NV javára, de Linux alatt jellemzően régebbi játékokkal játszok, azok beton stabil 144 fps-sel mennek natív felbontásban, kimaxolt grafikán is. Szintén tud hardveresen dekódolni minden formátumot az integrált 680M, MPEG2, h264, h265, VP8-9, AV1, ezeket VAAPI-val veszem igénybe. Így nem vagyok az NV kártyára szorulva.
Linux alatt kerülöm az Nvidiát, főleg mivel szeretek új csomagverziókat, friss kerneleket használni, emiatt is futtatok évek óta Arch-ot, azt is Testing tárolókkal. Ez a felállás teljesen jó az AMD GPU-knak, de a zárt NV drivernek az ellensége, így nem használom, így meg a PRIME-ot sem próbáltam még ki. Persze használható az NV is, de akkor érdemes LTS kernelt futtatni például.
PRIME nélkül is ki tudom kapcsolni az NV kártyát, mert van rá kernelbeálltás, menet közben a /sys/devices/platform/asus-nb-wmi/dgpu_disable értékékét az alapértelmezett 0-ról 1-re állítom és le van tiltva. Visszakapcsoláshoz viszont reboot kell. Viszont így használni nem tudom őket párhuzamosan, ahhoz NV drivert kéne telepíteni, meg ezt a PRIME-ot engedélyezni, és alkalmazásonként hozzárendelni az NV kártyát. Lehet lenne hozadéka pár játékban, de inkább csak önszopatásra lenne jó, így megoldottam máshogy. Reméljük pár év múlva az Nvidia is összeszedi magát a nyílt driverrel, jelenleg elég kezdetleges, panaszkodnak rá, hogy bugos.
A régi laptopomban lévő Ryzen 4700U-ba integrált Vega8-at használtam, az is elég jó volt, régi játékokat 1080p-ben kimaxolva, az újakat 1080p low-ba, vagy 720p med-ben simán vitte, játszható 30-60 fps-sel, nem is kellett több, mivel abban a gépben a kijelző is csak 60 Hz-es volt. Azelőtt a még régebbi üzleti laptopjaimban integrált Intel GPU volt, driverügyileg azokkal se volt gond, de játékok alatt azoknak elég fos a teljesítménye, nem játékokra valók, max. csak ősrégiekkel lehet rajta játszani, meg médiadekódolásban is csak régebbi kódekeket visznek (tipikusan h264). Ezért is preferálom CPU-ban az AMD-t, az erősebb és korszerűbb iGPU miatt (plusz patent médiadekódolás és FreeSync-támogatás, nuku tearing). Plusz AMD procik nem igényelnek az egységes magok miatt speciális ütemezést, ahogy modern Intel procikon a kis/nagy E/P-magos felállás.
“The world runs on Excel spreadsheets.” (Dylan Beattie)
- A hozzászóláshoz be kell jelentkezni
Köszi, hogy ennyit körmöltél.
"Viszont így használni nem tudom őket párhuzamosan, ahhoz NV drivert kéne telepíteni, meg ezt a PRIME-ot engedélyezni..."
Nincs engedélyezve itt a PRIME, mégis megy a natív nVidia driverrel a kártya.
"...és alkalmazásonként hozzárendelni az NV kártyát."
Ez már érdekesebb. Észrevettem, hogy lehetséges ilyen opció, de csak valami furcsaságnam véltem, napközben tesztelem, hogy tényleg funkcionál-e.
READY.
▓
- A hozzászóláshoz be kell jelentkezni
Linux már elvérzik azon is, ha 2 monitort kötsz egy kártyára, felejtsd el, rakj fel rendes OS-t helyette.
- A hozzászóláshoz be kell jelentkezni
Mit értesz rendes OS alatt, ami itt szóba jöhet? FreeBSD-t? OpenBSD-t? Vagy valamelyik minor BSD-t? Vagy esetleg Haiku-t? Ezek közül bármelyiken menni fog? Csak mert macOS-t/AIX-ot/HP-UX-et nem hiszem, hogy fel tud szuszakolni egy Ryzen-es PC-re, a Solaris meg kvázi kihalt. :(
- A hozzászóláshoz be kell jelentkezni
Kösz, de nem vérzett el két monitorral. A 3. monitor rákötésekor merült fel bennem néhány kérdés. Sőt, a vártnál jobban működik.
READY.
▓
- A hozzászóláshoz be kell jelentkezni
???
Mikor információ ez?
Alaplapi Intel + Nvidia négy különböző felbontású monitor simám megy!
- A hozzászóláshoz be kell jelentkezni
lássuk be nem triviális(erősen hw támogatottság függő), de megoldható.
- A hozzászóláshoz be kell jelentkezni
A Linux nem egységes valami monitorkezelésben sem. Attól is függ, hogy milyen display server, milyen grafikus környezet, milyen GPU. Nem lehet általánosítani, hogy a Linux így vagy úgy. Attól is függ, hogy ki mit szokott meg, hogyan hajtja ki a több monitort, ebben már alap X-es ablakkezelők is gyökeresen különböznek, melyik monitorra hogy engedik az alkalmazást, a virtuális asztalokat hogy osztják ki, hogy váltanak közöttük, milyen libeket használnak (Xinerama vagy más), stb..
“The world runs on Excel spreadsheets.” (Dylan Beattie)
- A hozzászóláshoz be kell jelentkezni