UNIX haladó

Proxmox 7 - GlusterFS

Fórumok

Sziasztok, kicsit elakdtam, van két node-om a Proxmox clusterben (ez csak dev környezet) és gondoltam alá teszek egy glusterFS megosztást a 2 node-ra. Ha lekérem a gluster status minden OK, csak a Proxmox felületén nem tudom be mountolni a volume-ot, vagyis nem listáza ki. A kérdésem hogy vajon mit felejtek ki.

Előre is köszönök bármiylen ötletet.

Zentyalban jártas szakembert keresek mail/tűzfal szerver felülvizsgálatra

Fórumok

Sziasztok!

Keresek olyan Zentyal / Mail szerver / Tűzfal szerver szakértőt , aki felülvizsgálná egy szerver konfigurációját!

A történet röviden, hogy már második alkalommal próbálok átállni egy 3.4.10 Zentyal Linuxról , 7.0.9-es Zentyal Linuxra. Mind a 2 Develop kiadás.

Első alkalommal pppoe kapcsolat nem épült fel, ezt már megoldódott, és napokig teszteltem helyileg a szerver webmail és mail kapcsolatát, helyi kapcsolattal tökéletes volt a kommunikáció és elvileg a domain szolgáltató által kiállított tanúsítvány is jó, de ma ismét kudarcba fulladt az átállás, mert az adatok migrálását követően a szerver először tanúsítvány hibára hivatkozva nem adott imap kapcsolatot, majd pár perc múlva nem is volt elérhető a rajta futó redmine projekt naplóval együtt.

Tűzfal szabályok ugyanazok, mint a régi szerveren , mégsem működik semmi wan oldali kapcsolatról befele, internetet viszont ad kifele.

Legközelebb 02.04 vasárnap esedékes a csere, addigra szeretném rendeberakni a szervert, hogy már csak adatokat kelljen költöztetni.

Legyen szíves jelentkezni , komment vagy privát üzenet formájában aki tud ebben segíteni távoli elérés (anydesk, vagy ami szimpatikus használatával )nekem óradíj, vagy projekt alapú díjazással, mert én már konkrétan belefáradtam idegileg.

Köszönöm előre is a segítséget! #Zentyal #Firewall #Mail

Akkor most kinyírja a Rocky/Alma Linux..stb...disztrókat az IBM vagy sem?

Fórumok

Sziasztok!

 

Ki mit hallott, tud a témáról így fél év távlatában? Váltanék deb vonalról rpm-re. Rocky lett volna a választás de elbizonytalanodtam a hírek hallatán.

A RHEL berágott kb fél éve, hogy ma már "bárki" újra fordíthatja a kódjaikat aztán ingyen adja azt amiért ők "keményen" melóznak.

 

Nem otthoni környezetről van szó, legyen inkább enterspájz. A deb kezd fapados lenni (mióta RIP Murdock és Mikrofoscht bought Cannonical), de 40-50.000 dollár sincs évente X darab linux os support licenszre....Az Ubuntu épp csak 112.000 USD lenne per év...

Szóval nem mindegy...Nincs bajom azzal ha valamiért fizetni kell, de már bocsánat...a Windows is olcsóbb.(el se hiszem hogy ezt leírtam...20 év Debianozással a hátamban...)

 

Kezd tényleg elk*vulni a linux világa is. (szerintem)

z/OS 2.5 ADCD

Fórumok

Sziasztok,

nem igazan talaltam megfelelo forumcsoportot, igy Unix alatt hoztam letre ezt a forumtemat. Tudom nem illik ilyet kerni, de szuksegem lenne a cimben szereplo z/OS verziora. Ha valaki esetleg meg tudna osztani velem, azt nagyon megkoszonnem. Termeszetesen "jatszani" kellene, mivel nincs hardverem hozza. :)

Koszi

NVIDIA Cuda ffmpeg darabszám

Fórumok

Üdv!

 

Van egy gép 3db Tesla T4 kártyával és csak 32 példányban tudom futtatni az ffmpeg-et transzkódolás céljára.

Ez elvileg egy Cuda kernel/grid darabszám limit.

Tud valaki megoldást arra, hogy hogy szokás ezt a limitet túllépni?

driver: 535.104.05

Cuda: 12.2

Az megoldás lehetne, hogy egy ffmpeg-el egyszerre több streamet transzkódolok, de elég macerás lenne így menedzselni az egészet, célszerűbb lenne streamenként saját ffmpeg-et futtatni.

 

Amúgy HW limitáció nincs, mert ha egy streamből sok kimenetet állítok elő, akkor bőven túl lehet lépni a 32-es limitet, csak a driver nem enged 32-nél több szoftvert futtatni függetlenül attól, hogy hány GPU kártya van a gépben.

Nincs átlátszó szín, LUbuntu alatt.

Fórumok

Sziasztok!

Van egy Qt-s programom, ami egy videóra tesz ki szöveget, egy átlátszó ablak segítségével. LUbuntu alatt ez az ablak nem átlátszó. Ha jól látom, semmi sem átlátszó, a QTerminal-t hiába állítom átlátszóra, nem lesz átlátszó az sem. Az sddm alatt fut az lxqt. Ez valami beállítás miatt van, vagy egy kötelező feature? Próbáltam lecserélni az sddm-et lightdm-re, de csak kinyiffantottam a rendszert.

(Megoldva) rsync gond

Fórumok

Van egy kis gondom.
 

Két Ubuntu között:
Küldő oldalon ez jön:

opening tcp connection to 192.168.10.15 port 873
sending daemon args: --server -vvlogDtprze.iLsfxCIvu --delete --info=ALL . ispteszt/  (6 args)
(Client) Protocol versions: remote=31, negotiated=31
Client negotiated checksum: xxh64
Client negotiated compress: zstd (level 3)
sending incremental file list
[sender] change_dir(/home)
send_files starting

Hosszú idő után:
rsync: [sender] read error: Connection timed out (110)
rsync error: error in socket IO (code 10) at io.c(806) [sender=3.2.7]
[sender] _exit_cleanup(code=10, file=io.c, line=806): about to call exit(10)

A fogadó oldalon ezt látom:

2023/08/03 16:57:44 [357605] rsync allowed access on module xxxx from xxx (10.10.8.1)
2023/08/03 14:57:44 [357605] rsync to xxxx/ from xxx (10.10.8.1)

Open vpn kapcsolat van a két gép között.

A küldő gépen tesztelve:

telnet 192.168.10.15 873  
Trying 192.168.10.15...
Connected to 192.168.10.15.
Escape character is '^]'.
@RSYNCD: 31.0 sha512 sha256 sha1 md5 md4
 

Mit nézzek meg?
Hol lehet a hiba?

lxc-lxd

Fórumok

Sziasztok!

Rákattantam az 1 literes gépekre, most nevezetesen egy Lenovo 910x-re. Kettő nvme mellett még van egy sata , egy pcie és egy m-pcie portja. Jól bővíthető, jelenleg egy i5 van benne 4 mag/4 szál, ezt majd i7-re fogom cserélni (vagy mákra, mert ugyan nem többszálú, de legalább sok mag ;) ). Ami meglepett, hogy bár a spec szerint 32GB a maximum memória, vígan megy 64-el. A rendszer egy 256-os sata ssd-n van és mind a kettő nvme-ben van 4TB ssd, hogy legyen hely (az egyik nfs-en exportált, ez váltotta a korábbi qnap nas-t). A pcie foglalatba később kerül majd egy nvme adapter, további ssd-knek amit raid-be szeretnék szervezni, az mpcie-be pedig valami gyorsabb hálózatot, de ez még nem prio. Mivel kis helyen aránylag nagy teljesítményre képes, egy mindenest szeretnék vele kialakítani, ehhez az lxd-lxc-t próbálom a konténerekhez és a kvm-et a viruális gépekhez. A rendszer egy csupasz gentoo, amúgy is ez a fő rendszerem, ezt ismerem, a fájlrendszer mindenhol btrfs. Mivel az lxc/d-t mindeddig nem használtam, illetve egy kicsit kipróbáltam proxmox-on, de ott a webui-n keresztül, de az más világ. Mivel nem ismerem őket (még) kicsit lassan haladok, ha esetleg van olyasmi ami nem egyszerű vagy csak nem jól dokumentált és érdemes tudni, arról kérnék tőletek egy kis infót/ötleteket. A preferált kezelőfelület a terminal leginkább, de ha van karbantartott projekt ami ajánlott a kezelésükre, szívesen kipróbálnám (tui, webui).

A kérdéseim: az lxd-n próbából létrehozott Debian-t szeretném törölni, de nem hagyja magát :D A hibaüzenet:

lxc delete --force Debian
Error: Error deleting storage volume: Failed setting subvolume writable "/var/lib/lxd/storage-pools/default/containers/Debian": Failed to run: btrfs property set -f -ts /var/lib/lxd/storage-pools/default/containers/Debian ro false: exit status 1 (ERROR: Could not get subvolume flags: Invalid argument)

Már körbe gugliztam a „világot” és nem lettem okosabb, nem hagyja magát törölni. Ez most mi? Hogyan törölhetném? 

A docker képekből csináltam lxc konténereket, ezeket szeretném az lxd-re költöztetni, de egyelőre sikertelenül. A hiba:

lxc-to-lxd --all
Parsing LXC configuration
Checking for unsupported LXC configuration keys
Skipping container 'jellyfin-server': Found unsupported config key 'lxc.init.uid'
Parsing LXC configuration
Checking for unsupported LXC configuration keys
Skipping container 'plex-server': Found unsupported config key 'lxc.init.cwd'

A konfigokat nem módosítottam, ahogy az lxc-create megcsinálta, úgy vannak. A parancsok ezek voltak:

lxc-create plex-server -t oci -- --url ghcr.io/linuxserver/plex:latest
lxc-create jellyfin-server -t oci -- --url ghcr.io/linuxserver/jellyfin:latest

Kell ilyenkor a konfigot módosítani vagy jó az automatikusan dockerből létrehozott?

Hirtelen ezek amik nem mennek, de biztosan lesz még további kérdésem.