Red Hat, Fedora, CentOS

MariaDB datadir CIFS-en?

Üdv,

Olyan problémám lennem hogy Hyper-V-ben futtatott CentOS 7-en szeretném a MariaDB datadir-t egy cifs mount-ra rakni, viszont SELinux ezzel nem ért egyet, ezt egy custom policy-val bár megtudom oldani, de a mysql.sock-ot sem preferálja a rendszer cifs-en. Próbáltam my.cnf-ben átrakni mysql.sock-ot /tmp/mysql.sock-ra viszont mariadb restart után semmi errort nem dobott, se audit, se mariadb, viszont a fájl sem jött létre. Az egész lényege az lenne, hogy az egész datadir szinkronizálva legyen OneDrive-ra, így laptopról is elérhető lenne. Kérdésem az lenne, hogy van-e esetleg ennél jobb ötlet hordozhatóságra (végső esetben beállítok egy replicationt egy szerver géppel, csak jobb szeretném, ha minden egy helyen elérhető lenne cloudban), anélkül, hogy bármit manuálisan kéne mókolni minden változtatás után. Ha nincs, akkor esetleg van-e ötlet arra, hogy miért nem jön létre a socket fájl? Neten találtam, hogy a client-nél megadott socketet is át kell állítani, viszont ott nincs is megadva socket.

Előre is köszi :)

NFS nagy teljesítménnyel

hali,

kis webkiszolgáló cluster, egy központi géppel, amin NGINX és NFS fut, két appszerverrel, ahol php-fpm, és egy db szerver (az az NFS közelébe sem szagol, és rendben is van ott minden). eddig oké, pacemaker/corosync cluster glue-val fut az egész. azzal a résszel nincs is probléma.

a bottleneck az NFS.

jelenleg ezek a mount opciók a kliensgépeken (/proc/mounts):

clusterhead:/home/ /home nfs4 rw,relatime,vers=4,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,port=0,timeo=600,retrans=2,sec=sys,clientaddr=192.168.xx.xx,minorversion=0,local_lock=none,addr=192.168.xx.yy 0 0

(lock nem is kell (más módon van megoldva), az async módot meg nem merem bevállalni, mert rohadt fontos az írási integritás.)

helyenként 80-100as loadba is befutnak ezek a kis gépek. munin gráfokon megnézve, a gond az, hogy a proci(k) kurva sok időt tölt(enek) iowait állapotban az appszerveren. a vmstat alapján is ez a helyzet, ott is az i/o sleep dominál. egyértelmű, hogy az NFS szerver nem bírja a rohamot.

kicsit lejjebb vettem a php-fpm-ben a futó processzek számát, javult is a helyzet, plusz az NFS szerveren a kiszolgáló processzek számát felhúztam 32-re (/etc/sysconfig/nfs):
RPCNFSDCOUNT=32

de változatlanul eléggé nagy az iowait, a load is ugrál. szóval kéne valami megoldás. :/

ami még gyanús, az a netstat grafikonon a failed és a resets nagy száma.

a grafikonok: http://www.pdx.hu/jobs/nfs/

ami eddit volt és lesz:
- a sysctl.conf-os performance tuningokat már rég megcsináltam, nem ott lesz a gond szerintem.
- eddig egy HDD volt a clusterhead-ben (az NFS szerverben), most az NFS megosztás (a /home/) kap egy sajátot ma éccaka.
- az NFS processzek számát feljebb vettem.
- a php-fpm processzek számát lejjebb vettem, hogy kevésbé terheljék a rendszert.

ami gyanús:
- az rsize és a wsize kurva magasnak tűnik nekem (rendszer default értékek).
- ellenőriztem, az interfészek mindenütt 1Gbit módban vannak. az MTU 1500. vegyem feljebb?
- mivel lokális net a cluster, esetleg felejtsem el a TCP módot, és váltsak UDP-re, sokkal alacsonyabb rsize/wsize-al?

ötletek?

[Megoldva] Tűzfal beállítása Fedorán

Ezt miért csinálja velem?


firewall-cmd --permanent --add-port=1793/udp
Error: IO_Object_XMLGenerator instance has no attribute '_out'

Természetesen root joggal. GUI-ról ugyanez a helyzet. Mivel azt hittem, a GUI vacak, ezért próbáltam CLI felől egyezkedni vele. Egyelőre vesztésre állok.

Megoldás:

A debug alapján kiderült, mit hívott, hol keletkezett a hiba. Megnéztem, az adott függvényt melyik csomag tartalmazza. Feltűnt, hogy ez egy Fedora 19-es, azaz korábbi csomag. A Fedora build szerveren, megnéztem, nincs belőle újabb. Ekkor úgy döntöttem, leszedem ezt a csomagot, annál is inkább, mert egy másik gépen nem volt ez a csomag. Függőségként nem is vitt magával semmit. Nem feszítem tovább a húrt:

rpm -q PyXML
PyXML-0.8.4-29.fc19.x86_64

yum erase PyXML

Most már működik a tűzfal beállítása. :)

Egyéni script automatikus indítás/leállítás RHEL 7 alatt

Sziasztok!

RHEL/Centos 7 kérdésem lenne hozzátok: szeretném, ha a JBoss automatikusan indulna boot során az indító shell script-tel:
/opt/jboss/jboss-eas62/jboss-eap-6.2/bin/standalone.sh

Illetve leálláskor a leállító, paraméterezett script:
/opt/jboss/jboss-eas62/jboss-eap-6.2/bin/jboss-cli.sh --connect command=:shutdown

Hova kell ezt beírni?
A /etc/systemd/user alá egy saját file-ba?
Ha igen, mi legyen a Type mezőben?

Jó sok az újdonság a 7-esben, még szokni köll :)
Előre is köszönöm!

Openstack AIO node szinkronizálása

Üdv!

Adott 3db CentOS 6 szerver, amire fel van telepítve az Openstack
All In One módban (Controller/Computing/Storage node/szerver).

Akárhogy guglizok, nem találtam megfelelő leírást, hogy hogyan is kellene ezeket szinkronizálni. (Tudom, hogy nem ez a "szokványos"
felhasználás, de nekem most ez lenne a megoldandó feladatom...)

A pontos kérdés:

Hogyan lehet (lehet e egyáltalán???) az AIO szervereket 1:1 arányban tükrözni, hogy ha 1 kiesik, a másik 2 zökkenésmentesen menjen tovább.

Köszi a segítséget!

CentOS 7 iso

Egy CentOS guru tudna nekem segíteni? Terelgetek 3 CentOS-t kb 1 éve, amit nem én telepítettem, de lassan nagyon érik a csere, viszont most már megvárnám a 7-est. Elkezdtem nézni, hogy hogyan lehetne a egy iso-hoz hozzájutni, ami a mostani állapot, de nem sikerült rájönnöm...

Előre is nagyon köszönöm a segítséget

Fedora 20 skype 4.* screen sharing probléma

Helló.
Találkozott valaki olyan problémával, hogy ha fedora 20 alatt megosztotta a képernyőjét (akár windows-nak, akár ipadnak, mind1), akkor a kép valami iszonyat rossz minőségű volt?
Valami ilyesmi: http://community.skype.com/skypec/attachments/skypec/Linux/8726/1/skype_sharing.png

A skype új verziójával is jelentkezik.

Corosync+Pacemaker konfigurálás CentOS 6.5-ön

hali,

miután sikerült megállapodni abban, hogy a miniclustert bizony a pacemaker/corosync páros fogja meghajtani, elkezdtem a próbálkozásokat a konfigurálásra. némileg viszont "szárazra futottam".

ha a pacemaker quickstart doksit nézem, akkor:
http://clusterlabs.org/quickstart-redhat.html

viszont, a részletesebb, jobban elmagyarázott doksi:
http://clusterlabs.org/doc/en-US/Pacemaker/1.1-plugin/html-single/Clust…

az elsőnél ccs-t és pcs-t használ a konfigurálásra. a másodiknál nem, pedig azt írják, hogy a centos 6.4-től a pcs és ccs a preferált commandline.

ott van még az lcmc, de az meg annyira bugos, hogy:
- nem megy a sudo-s módszer (küldtem nekik bugreportot),
- nem megy a multihop elérés (pedig jó lenne, mert a cluster tagjai a gateway mögött egy privát hálózaton vannak, amit csak a gateway-en keresztül érek el),
- nem megy az, hogy a gatewayen portforwarddal érem el az egyes belső gépek ssh-ját -- valamiért az lcmc IP alapján azonosít, az meg ugye ugyanaz...

kinek mi a tapasztalata? rakott már össze clustert itt valaki ezekkel a toolokkal?

illetve még egy kérdés: a corosync-nek miért kell két multicast ring?