( ggallo | 2020. 09. 21., h – 18:47 )

Nekem erre a felvetésre az jutott elsőre eszembe, hogy a ZFS-sel foglalkozó netes problémafelvetések 85%-a oda vezethető vissza, hogy mindenféle "gyári" (fejlesztői) ajánlást figylmen kívül hagyva összehánynak valamit (HW és SW terén egyaránt, jellemzően otthon), aztán csodálkoznak, hogy nem működik, hibázik, összeomlik.

Tehát a fenti mondat alapján visszakérdeznék: melyik enterprise HW vagy SW lemezkezelő rendszer teszi ezt lehetővé így, ahogy Te leírtad, hogy szeretnéd?
Szerintem egyik sem. A nagyobb lemezek plusz kapacitása mindig elveszik. A ZFS sem azért jött létre, hogy ami otthon a fiókban (a kuka helyett) összegyűlt az évek alatt, azt el lehessen valamire használni, ráadásul megbízhatóan...

Javaslom, hogy olvasgass Ceph-ről szóló írásokat, ott sok helyen nagyon jól leírják, miért nem szerencsés különbőző méretű meghajtókat használni egy rendszerben(kötetben. Adat- és terhelés-elosztási problémákat is felvet a dolog szép számmal.

A másik megközelítésem: ha szerenék egy redundáns tömböt, akkor veszek annyi dikszek, amennyi kell hozzá, és megcsinálom. Amikor ennek lejár a megbízhatósági ideje (garancia, stb. ki miben hisz), akkor kicserélem mindet. Ha épp nagyobb a jó vétel, akkor kapásból több helyem is lesz a csere után. Ha idő közben megromlik egy elem, akkor kicserélem egy akkora vagy nagyobb egységre, és megy tovább minden (ha nagyobb, akkor elveszett a plusz). Ha a tömb még "szavatos", de kevés a hely, akkor vagy csinálok egy újabb tömböt, vagy kicserélem az összes diszket nagyobbra (mert kell a hely).

Én sehogyan sem tudom értelmezni, hogy veszek egyesével különböző diszkeket valamire, aztán egyszer csak redundanciára vágyom a meglévő anyag felhasználásával, de 100%-os kapacitás hasznosítással, úgy, hogy az előzmények alapján semmiféle tervezés nem előzte meg a megvalósítást. És ezt egy tároláskezelő rendszer hibájának felróni...