[solved] Proxmox 6.1 replikáció

Fórumok

Sziasztok!

Proxmoxal akadt egy érdekes problémám tesztelés közben. Adott node1 és node2, ezek clusterbe vannak rakva. Mindkettőn van egy ZFS-STORAGE nevű storage, nincs megosztva, sima local zfs pool.

A node1-en futó vm100-ról készíttetek replikát a node2-re, gyönyörűen megcsinálja. A vm100-nak van egy 4G méretű disk-je, ugye ezt replikálja node2-re. Csakhogy a replikáció után már a node1-en lévő ZFS-STORAGE-ben is és a node2-n lévő ZFS-STORAGE-ben is 8G hely van lefoglalva, ennyivel kevesebb a szabad hely mindkét storage-on.

Arra rájöttem, hogy ezt a snapshot foglalja el, amit a replika miatt hoz létre. De ennek biztosan így kellene működnie? Ezt a spanshotot nem kellene törölnie? Ebben az esetben egy 4TB-os vm 16TB helyet eszik meg csak azért, hogy replikálódjon egy másik storage-ra. Normális????

Hozzászólások

A forrás gépen 1 db snapshotnak lennie kell hiszen ahhoz képest tudja értelmezni a "változást". A cél gépen elvileg fölösleges, de a gyakorlatban a ZFS 1 db snapshot kell. Mintha olvastam volna olyat, hogy a ZFS volume megvalósítás hibája hogy ezek a teljes területet tartalmazzák, de ez utóbbiban lehet tévedek.

Szerkesztve: 2020. 05. 05., k – 17:05

El tudom képzelni, hogy egy kapcsolóval lehet csökkenteni az snapshot méretét, de ezzel fennáll a veszélye, hogy egy hálózati szakadás után annyi változás történik a forrás hoston, hogy kifut a snapshot méretből és nem tudja átküldeni a változást, amikor visszajött a hálózat. Windowsos megoldásnál is van egy idő limit, ami után újra kell kezdeni, mert a cél host elvesztette a fonalat.

Thin provisioning-t érdemes még megnézni., Itt ugye annyit foglal le a diszken, amennyi a tényleges diszk foglalásod. Kérdés, ilyenkor hogy viselkedik a snapshot. LVM thin provnál tudom, hogy a backup gyorsabb, a poolból kimarkolt rész pedig kisebb.
Ez csak akkor segít, ha nem laktad be nagyon a kiajánlott virtuális diszket.
Hirtelen ezt találtam, nem próbáltam: https://forum.proxmox.com/threads/zfs-enable-thin-provisioning.41549/