1, jelenleg 16x480GB Intel 3500 SSD van egy dobozban, E3-as procival, random write tesztnel CPU limites a storage... 2xE5-re lesz cserelve.
2, tegnap elkezdtem atpakolni 8 diszket egy masik gepbe, ugy, hogy kozben ~1.3T adat mar van rajta, tehat normal shrink kellett. lepesek:
- ceph osd out $id
- megvarjuk, amig atmigral mindent a tobbi diszkre
- initctl stop ceph-osd id=$id
- ceph osd crush remove osd.$id
- megvarjuk megint, amig atmigral... (elvileg nem kene neki, ismert korlatozas, nyitottam ra bugot)
- ceph auth del osd.$id
- ceph osd rm $id
- umount /dev/sdX1
3, iSCSI-n tok jol megy VMware fele (localban rbd mount, majd azt kiajanlom, es azon VMFS), a multipathingot delutan kiprobaljuk (2 storage box, mindketton ugyanazt exportalni)
4, ha azt akarjuk, hogy ne csak a volumeok, de az ephemeral diskek is cephen legyenek, kezzel kell hackelni a horizon kodot, innen-onnan osszeszedett patchekkel, amit aztan nekem is meg kellett patchelnem. majd osszegyujtom oket, ha lesz mar vegleges lista...
- NagyZ blogja
- A hozzászóláshoz be kell jelentkezni
- 1357 megtekintés
Hozzászólások
Piacérett terméknek tűnik ;)
- A hozzászóláshoz be kell jelentkezni
Miért nem GPFS-re építkeztek?
- A hozzászóláshoz be kell jelentkezni
mert szeretem a cepht.
- A hozzászóláshoz be kell jelentkezni
Azt hiszem az érzelmi indoklással rövidre zártad a szakmainak tűnő vitát. :)
- A hozzászóláshoz be kell jelentkezni
a GPFS-rol nem rendelkezem olyan szintu tudassal, hogy barmit authentikusan ki tudjak jelenteni rola, csak amit a kollegak a folyoson beszelnek rola :-)
csak azert, mert IBM-es pedig nem kell hasznalnom, igy kiprobaltam valami ujat.
- A hozzászóláshoz be kell jelentkezni