( djsmiley | 2018. 03. 06., k – 19:20 )

Nálam meg mindig maradt az a tervezési filozófia h. legyen egy olyan node a rendszerben, amelyik nem tud ugyan erőforrásokat kezelni, de "szavazata" van. A node-ok közötti linkek legyenek minimum 2 fizikai tyúkbélen megoldva, ez lehet lacp, lehet bármi, de redundáns legyen.
Innen már csak a fejlesztőket kell ütni h. "cluster aware" legyen az az app, amit futtatni akarunk a csillió node-on. Namost a hősidőkben azért ezt nem volt olyan könnyű megoldani, főleg ha mondjuk Samba3 + msdfs kombóval próbáltál közel zero downtime fájlszervert építeni egy tákolmány ezer éves appnak aminek a fejlesztője arról sem tudott h. kijött a windows xp :)
Egyébként a VMS azért nem volt ám olyan szar, kár h. behatóbban nem sikerült vele foglalkoznom. Az AIX meg elég jól kezelte ezt az egész bulit a qourum pv megoldással együtt, de azért IBM-ék is mindig javasolták az "at least 3 node" szabályt.
Most fogalmam sincs h. ez az egész hol tart, már csak a corosync és rgmanager amivel foglalkozom, meg érintőlegesen docker swarm, ceph és barátai, bár leginkább shared storage-os megoldások üzemeltetése kapcsán a ceph helyett inkább a clvm játszik.
Igen, van még olyan ember, aki az FC storage-ben hisz, ha tárolásról van szó :)