lvm2 clvm dlm cluster

 ( opi19 | 2018. december 4., kedd - 17:06 )

Sziasztok,

Haladok az lvm cluster projektemmel.

Arhitectúra:
2 RedHat node lát egy közös SAN -on egy raid5 tömböt.

1., A disk tömb mind2 hoston tökéletesen látszik. Csináltam belőle pv-t.
2., Utána csináltam cluster VG-t.
3., Aztán ebbe lv-t.

A másik node-on nem történnek meg szinkronban a változások. pl ha létrehozok új LV-t.

reboot után szinronba kerül. Miért csak akkor. Scan hatástalan.

Ez így jó? vlamit rosszul csinálok?

[root@hyper01 ~]# lvdisplay
--- Logical volume ---
LV Path /dev/cluster_vg/cluster_lv2
LV Name cluster_lv2
VG Name cluster_vg
LV UUID SU8c7U-K6SX-lvXE-o6vj-gZ1O-D9Cq-7hb4mZ
LV Write Access read/write
LV Creation host, time hyper01.store01, 2018-11-27 07:43:51 -0500
LV Status available
# open 0
LV Size 4.00 GiB
Current LE 1024
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:2

[root@hyper01 ~]# vgdisplay
--- Volume group ---
VG Name cluster_vg
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 15
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 0
Max PV 0
Cur PV 1
Act PV 1
VG Size <273.40 GiB
PE Size 4.00 MiB
Total PE 69990
Alloc PE / Size 1024 / 4.00 GiB
Free PE / Size 68966 / <269.40 GiB
VG UUID Ii0ir3-XO3P-KeKY-hyDa-eog9-gIcN-BraNJP

[root@hyper01 ~]# pcs status
Cluster name: hyper01.cluster01
Stack: corosync
Current DC: hyper01.cluster01.local (version 1.1.19-8.el7-c3c624ea3d) - partition with quorum
Last updated: Tue Dec 4 11:03:05 2018
Last change: Tue Nov 27 06:48:06 2018 by hacluster via cibadmin on hyper01.cluster01.local

2 nodes configured
6 resources configured

Online: [ hyper01.cluster01.local hyper02.cluster01.local ]

Full list of resources:

Clone Set: dlm-clone [dlm]
Started: [ hyper01.cluster01.local hyper02.cluster01.local ]
Clone Set: clvmd-clone [clvmd]
Started: [ hyper01.cluster01.local hyper02.cluster01.local ]
ipmi-fence-node1 (stonith:fence_ipmilan): Started hyper01.cluster01.local
ipmi-fence-node2 (stonith:fence_ipmilan): Started hyper02.cluster01.local

Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled

5let? javaslat, ilyen környezetben hogy kell kezelni a volume-okat?

Hozzászólás megjelenítési lehetőségek

A választott hozzászólás megjelenítési mód a „Beállítás” gombbal rögzíthető.

lvm.conf -ban lock type vagy milyen neven fut be lett allitva clustered-re?
volume group be lett allitva hogy clustered tipusu?
storage biztos olyan hogy elerheto egyszerre mind2 node-rol?
pacemaker resource-ok configja hogy nez ki?

Szia,

Az lvm lock type 3-as szinten van, ami elvileg a cluster-re kiterjesztett érték.

grep: locking_type = 3

[root@hyper01 ~]# history | grep vgcre
402 vgcreate -Ay -cy cluster_vg /dev/sdb

ha a második node-ot újraindítom, és szinkronba kerül az LVM, utána az elsődlegesről lecsatolt filerendszert fel tudom mountolni.
Ez egyelőre csak tesztelgetés, később valami clustertudatos filerendszerrel szimultán szeretném használni.

kitérő kérdés: milyen "clustertudatos" FS-re gondoltál?

ocfs2 gfs2

b verzió, hogy iscsi portálon kiajánlom a lv-ket mint lun-okat, és az lv-ket esxi hostok mountolják fel, és használnak rajta vmfs-t.

Szia, ezt a kérdést nem értem. Mire gondolsz aktiválás alatt?

Az LVM-es VG-ket a használathoz aktiválni kell. A vgcreate amúgy aktiválja, de ettől függetlenül a legközelebbi bootkor már kell egy aktiválás. Az más kérdés, hogy alapból aktiválódnak a VG-k (ha másként nem rendelkezel) - node a másik node honnan tudná, hogy neki is van egy VG-je? Szóval valahogyan ki kell adni 'vgchange -a y|s VGname' jellegű parancsot a 2. node-on is. Már szerintem.

Jav: nekem az a tapasztalatom, hogy a vgs / vgdisplay kevéssé egyértelmű; az, hogy látszik-e valójban (azaz tudja-e használni is) a gép, az leginkább onnan látszik, hogy a /dev/mapper/ alatt látszanak-e az LVol-ok.

=====
tl;dr
Egy-két mondatban leírnátok, hogy lehet ellopni egy bitcoin-t?

Köszi, ezt megvizsgálom.