Sziasztok,
Haladok az lvm cluster projektemmel.
Arhitectúra:
2 RedHat node lát egy közös SAN -on egy raid5 tömböt.
1., A disk tömb mind2 hoston tökéletesen látszik. Csináltam belőle pv-t.
2., Utána csináltam cluster VG-t.
3., Aztán  ebbe lv-t.
A másik node-on nem történnek meg szinkronban a változások. pl ha létrehozok új LV-t.
reboot után szinronba kerül. Miért csak akkor. Scan hatástalan.
Ez így jó? vlamit rosszul csinálok?
[root@hyper01 ~]# lvdisplay
  --- Logical volume ---
  LV Path                /dev/cluster_vg/cluster_lv2
  LV Name                cluster_lv2
  VG Name                cluster_vg
  LV UUID                SU8c7U-K6SX-lvXE-o6vj-gZ1O-D9Cq-7hb4mZ
  LV Write Access        read/write
  LV Creation host, time hyper01.store01, 2018-11-27 07:43:51 -0500
  LV Status              available
  # open                 0
  LV Size                4.00 GiB
  Current LE             1024
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:2
[root@hyper01 ~]# vgdisplay
  --- Volume group ---
  VG Name               cluster_vg
  System ID
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  15
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               <273.40 GiB
  PE Size               4.00 MiB
  Total PE              69990
  Alloc PE / Size       1024 / 4.00 GiB
  Free  PE / Size       68966 / <269.40 GiB
  VG UUID               Ii0ir3-XO3P-KeKY-hyDa-eog9-gIcN-BraNJP
[root@hyper01 ~]# pcs status
Cluster name: hyper01.cluster01
Stack: corosync
Current DC: hyper01.cluster01.local (version 1.1.19-8.el7-c3c624ea3d) - partition with quorum
Last updated: Tue Dec  4 11:03:05 2018
Last change: Tue Nov 27 06:48:06 2018 by hacluster via cibadmin on hyper01.cluster01.local
2 nodes configured
6 resources configured
Online: [ hyper01.cluster01.local hyper02.cluster01.local ]
Full list of resources:
 Clone Set: dlm-clone [dlm]
     Started: [ hyper01.cluster01.local hyper02.cluster01.local ]
 Clone Set: clvmd-clone [clvmd]
     Started: [ hyper01.cluster01.local hyper02.cluster01.local ]
 ipmi-fence-node1	(stonith:fence_ipmilan):	Started hyper01.cluster01.local
 ipmi-fence-node2	(stonith:fence_ipmilan):	Started hyper02.cluster01.local
Daemon Status:
  corosync: active/enabled
  pacemaker: active/enabled
  pcsd: active/enabled
5let? javaslat, ilyen környezetben hogy kell kezelni a volume-okat?
- 959 megtekintés
 
Hozzászólások
lvm.conf -ban lock type vagy milyen neven fut be lett allitva clustered-re?
volume group be lett allitva hogy clustered tipusu?
storage biztos olyan hogy elerheto egyszerre mind2 node-rol?
pacemaker resource-ok configja hogy nez ki?
- A hozzászóláshoz be kell jelentkezni
 
Szia,
Az lvm lock type 3-as szinten van, ami elvileg a cluster-re kiterjesztett érték.
grep: locking_type = 3
[root@hyper01 ~]# history | grep vgcre
  402  vgcreate -Ay -cy cluster_vg /dev/sdb
ha a második node-ot újraindítom, és szinkronba kerül az LVM, utána az elsődlegesről lecsatolt filerendszert fel tudom mountolni.
Ez egyelőre csak tesztelgetés, később valami clustertudatos filerendszerrel szimultán szeretném használni.
- A hozzászóláshoz be kell jelentkezni
 
kitérő kérdés: milyen "clustertudatos" FS-re gondoltál?
- A hozzászóláshoz be kell jelentkezni
 
ocfs2 gfs2
b verzió, hogy iscsi portálon kiajánlom a lv-ket mint lun-okat, és az lv-ket esxi hostok mountolják fel, és használnak rajta vmfs-t.
- A hozzászóláshoz be kell jelentkezni
 
Pontosan hogyan aktiváltad a végét?
=====
tl;dr
Egy-két mondatban leírnátok, hogy lehet ellopni egy bitcoin-t?
- A hozzászóláshoz be kell jelentkezni
 
Szia, ezt a kérdést nem értem. Mire gondolsz aktiválás alatt?
- A hozzászóláshoz be kell jelentkezni
 
Az LVM-es VG-ket a használathoz aktiválni kell. A vgcreate amúgy aktiválja, de ettől függetlenül a legközelebbi bootkor már kell egy aktiválás. Az más kérdés, hogy alapból aktiválódnak a VG-k (ha másként nem rendelkezel) - node a másik node honnan tudná, hogy neki is van egy VG-je? Szóval valahogyan ki kell adni 'vgchange -a y|s VGname' jellegű parancsot a 2. node-on is. Már szerintem.
Jav: nekem az a tapasztalatom, hogy a vgs / vgdisplay kevéssé egyértelmű; az, hogy látszik-e valójban (azaz tudja-e használni is) a gép, az leginkább onnan látszik, hogy a /dev/mapper/ alatt látszanak-e az LVol-ok.
=====
tl;dr
Egy-két mondatban leírnátok, hogy lehet ellopni egy bitcoin-t?
- A hozzászóláshoz be kell jelentkezni
 
Köszi, ezt megvizsgálom.
- A hozzászóláshoz be kell jelentkezni