ZFS Fan Club

ZFS, ubuntu 20.04. - Frissítési hiba és nem indul a gép...

Fórumok

Sziasztok,

sajnos sikerült valamit "javítanom" a serveremen, így most már nem indul el.

A file rendszer ZFS, ubuntu 20.04.

Hiba:

Van grub menu tudok választani, de ha elindítom, akkor megáll inintramfs promttal.

A hibát onnan származtatom, hogy próbáltam frissíteni a rendszert, de dobott egy hasonló hibát:

https://askubuntu.com/questions/1246502/ubuntu-20-04-with-root-on-zfs-e…

Probáltam helyre hozni, de a képlet mutattja nem sikerült:

Bootoláskor ezzel áll meg:

ALERT! ZFS=systempool/ROOT/ubuntu does not exist.

Kép a jelenlegi állásról:

https://ibb.co/yNxjTHV

Nagyon tovább nem merem javítani, kérdésem, hogy hogyan tudnám helyre hozni a rendszert?

Köszi!

Kalmi

UBUNTU 18.04 ZFS rendszer redundancia tesztelése

Fórumok

Sziasztok,

tesztelem Virtualbox ban az UBUNTU 18.04 ZFS rendszer a telepítés redundanciáját. Jelenleg két virtuális diskre tettem fel a rendszert. Alap esetben hiba nélkül indul el az Ubuntu. Ha kiveszem az sda lemezt, akkor a következő hiba jön fel. Ha nem szakítom meg esc-el, akkor rendben elindul a rendszer. Kérdésem, hogy mi lehet a baja?

https://ibb.co/C81Q2Tw

Néztem a journalctl -xl, de nem láttam olyan hibát, ami ezt okozza. Persze kezdőként lehet van, de nem látom :)

Köszi előre is!

Kalmi

Lassú ZFS

Fórumok

Sziasztok!

Freenas rendszerrel összeraktam egy storage szervert ami a a következőképpen néz ki:

HP DL380E G8
64GB DDR3 1333mhz memória
Xeon E5-2450L
LSI 9207-8i HBA
Qlogic QLE2562 FC

Merevlemezek:
3DB HGST 6TB 4Kn
2DB Seagate Enterprise capacity 6TB 512e
2DB Seagate EXOS 7E2 6TB 512e

A probléma a következő:

FC-n oda van adva egy ESxi host-nak egy zvol.

Ha szintetikus teszteket végzek rajta (RDM vagy VMFS-el) akkor teljesen rendben van a sebesség 820MB/s olvasás és írás (Q8 1MiB) Atto diskmark-al úgyszintén rendben vagyunk. [benchmarkok]

De ha elkezdek másolni rá fájlt egy ssd-ről akkor elindulunk szép nagy sebességgel majd lecsökkenünk folyamat 50-80MB/s közé de van, hogy ez alá is lemegy, szerintem többet kéne tudnia.

Nincsen SLOG/L2ARC beállítva most még csak szeretném ezek nélkül kipróbálni, hogy mit produkál.
Próbáltam már sync=disabled -el azzal nagyon halványan növekedett csak.

Valahogy ezt a sebességet kevésnek érzem ennyi merevlemeznél.

Köszönöm a segítséget

 

ZFS zvol kérdés

Fórumok

Van egy 24TB-os nettó kapacitású üres zpool-om (5 diszkes 33TB nyers RAID-Z1).
zfs create -V .... akarok csinálni benne iscsi célra egy nagy zvol-t.

Miért csak 15TB-ig engedi a zvol-t? A 16 TB-ra miért írja, hogy "out of space"?
Miért fogy el a 24TB (zfs list: avail 1.38TB), amikor a 24TB nettó kapacitásban létrejön a 15TB-os zvol?

Részletek:

# zpool list
NAME    SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
data  33,4T  5,85M  33,4T        -         -     0%     0%  1.00x    ONLINE  -

# zfs list
NAME                USED  AVAIL     REFER  MOUNTPOINT
data                  24,5T  1,38T      153K  /data
data/datavol      24,5T  25,9T     89,5K  -

datavol: zfs create -V 15TB ...  a 16 TB-ot már nem engedi.
iscsi meghajtó méret: Size: 16492674 MB ... tehát tényleg 15TB. Mire foglalódik le a további 9TB?
Miért nem célszerű 50%-nál többet iscsi célra létrehozni? Kontrasztos annak tükrében, hogy klasszikus mdadm-mal létrehozott RAID5 blokkeszközből 100% kiadható.

update#2:

Köszi mindenkinek. Szóval úgy néz ki, a raidz + zvol bugos. Megkerülő megoldás:
mdadm ... raid5
zpool create data /dev/md0
és láss csodát
zfs create -V 25TB data/datavol # működik!

NAME                USED  AVAIL     REFER  MOUNTPOINT
data                  25.8T   104G       96K  /data
data/datavol      25.8T  25.9T       56K  -

zfs cannot create snapshot, out of space [MEGOLDVA]

Fórumok

Adott egy fizikai lemez, amin van egy luks, afölött egy zpool, és afölött egy ext4 fs.

 

Szeretnék egy írható snapshot-ot csinálni, és azt mount-olni.

Részletek:

```

    root@laci-ryzen:~# zpool list
    NAME       SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
    zstore02  1,81T  1,50T   320G        -         -     7%    82%  1.00x    ONLINE  -
    root@laci-ryzen:~# zfs list
    NAME             USED  AVAIL     REFER  MOUNTPOINT
    zstore02        1,61T   148G       24K  /zstore02
    zstore02/dsk02  1,61T   262G     1,50T  -
    root@laci-ryzen:~# zfs snapshot zstore02/dsk02@test
    cannot create snapshot 'zstore02/dsk02@test': out of space

```

A zpool-ra 320G free -t ír, a zfs-re 262G avail-t ír. Miért nincs hely egy új snapshot létrehozáshoz?

ZFS vs Dell S130

Fórumok

Sziasztok, használ valaki Dell S130 kontrollert ZFS-el? Igazából tapasztalatokra lennék kíváncsi, neten nem sok dolgot találtam róla, dokumentáció alapán úgy sejtem használható gond nélkül vele, de fixme. Dell R630-al szemezgetek, SATA SSD-vel használnám RAID1-ben.

Az új WD RED-ek jók még raid-hez ?

Fórumok

Van itt egy cikk a HUP-on (2020 április 15-i lent balra )a WD red-ekről.  Idáig azt sem tudtam hogy létezik ilyen, hogy SMR hdd.

Ha igaz amit írnak, akkor az új WD RED (WDx0EFAX sorozat)  nem jó RAID-be, pedig idáig kifejezetten ajánlott volt. 

Többen is arről számolnak be, hogy raid újraépítés közben kidobja a lemezeket, annyira lelassúl. Ha jól értem ezekben a lemezekben 

van hagyományos és SMR-es terület, pihenő időben átpakol a hagyományosról az SMR -területre. Terhelésnél erre nincs ideje, nagyon  belassul, 

rebuild megszakad. 

Van erről valami tapasztalat ? 

ZFS fájlrendszer, merevlemez IO hiba de utána nincs nyoma...

Fórumok

A Proxmox alatt egy ZFS van, ami RAID0-be van (kísérleti cuccnak jó és kell a hely).

Az egész sztori a múlt héten kezdődött, amikor volt egy linux frissítés. Másnap ez a mail fogadott a szervertől:

The number of I/O errors associated with a ZFS device exceeded
acceptable levels. ZFS has marked the device as faulted.

 impact: Fault tolerance of the pool may be compromised.
    eid: 21
  class: statechange
  state: FAULTED
   host: pve
   time: 2020-02-07 16:18:12+0100
  vpath: /dev/sdc1
  vphys: pci-0000:00:1f.2-ata-4
  vguid: 0x51FA9E4D76A3E72E
  devid: ata-WDC_WD20EARX-00PASB0_WD-WCAZAC153095-part1
   pool: 0xC8E728B9CD2A9090

A merevlemez eltűnt a linux alól, még a blkid se látta. restart után ismét megjelent, és egy resilver után, minden ment tovább, minden hiba és adatvesztés nélkül.

ZFS has finished a resilver:

   eid: 11
 class: resilver_finish
  host: pve
  time: 2020-02-07 17:10:56+0100
  pool: omv_data
 state: ONLINE
  scan: resilvered 16.4G in 0 days 00:05:21 with 0 errors on Fri Feb  7 17:10:56 2020
config:

    NAME        STATE     READ WRITE CKSUM
    omv_data    ONLINE       0     0     0
      mirror-0  ONLINE       0     0     0
        sdc     ONLINE       0     0     0
        sdb     ONLINE       0     0     0

errors: No known data errors

 

A S.M.A.R.T. semmilyen hibát nem talál, látszólag minden rendben.

Ma délelőtt ismét eltűnt  a merevlemez. A múlt héthez képest annyi a különbség, hogy most kicseréltem az adatkábelt, majd ismét resilver és minden megy tovább.

Mivel a Raid 0 nem hibatűrő, viszont az adatok, a mentések szerint intaktak, továbbá a S.M.A.R.T. nem dob hibát, én úgy gondolom, nem a merevlemez a ludas, de érdekelne, kinek, mi a véleménye!

Nem éles, kísérleti/home rendszer, tehát némi, max. 1 napos kiesés simán elfogadható, ennyi idő alatt a mentésből pótolhatóak az adatok, ezért marad a RAID 0, továbbá a gép se bír el több merevlemezt. Amíg a Proxmox alatti tűzfal megy, senki se panaszkodik.

Linus szerint inkább ne használj ZFS-t

Fórumok

https://www.realworldtech.com/forum/?threadid=189711&curpostid=189841

Nekem alajában semmi bajom nem volt soha Linus Torvaldssal, de nem igazán kedveltem sose valamiért. De ez alapján a vélemény alapján értem, miért nem szeretik (finoman fogalmazva) oly sokan.

A téma arról szól, hogy valami friss kernel változás töri a ZFS on Linux-ot. Erre Linus reakciója:

  • Röviden: Ne használd.
  • Bővebben: Nem támogatom, mert az Oracle-lel nem akarok ujjat húzni, és nem tiszta a licencelés kérdése.
  • Még bővebben: Nem érdekel ha valaki partizánkodik és kernel modult fejleszt az engedélyem nélkül. Egyébként is megnéztem már, egy szar, miért akarná bárki használni?

Hát, én nem tudom. Az Oracle dolgot megértem, jogos. De az, hogy sok-sok fejlesztővel rendelkező, élő, működő, fejlődő, tömegek által használt szoftver megáll, és ennyire nem érdekli, és semennyire sem konstruktív...

Az ilyen írások miatt érzem olykor azt, hogy hiába a sok milliós fejlesztői és felhasználói bázis, hiába open source jóformán az egész Linux világ, egyetlen idióta kezében van mégis minden, és rajta áll vagy bukik... Ez akkor is gáz, ha történetesen az Ő találmánya/munkája az alap rendszer.

Nem flame-et szeretnék nyitni, nagyon nincs rálátásom az ilyen témákra, csak ez megragadta a figyemem, mert én speciel szeretem és használom a ZFS-t (FreeBSD és Linux alatt egyaránt).

Saját szerver ZFS tuning

Fórumok

Sziasztok!

Adott egy otthoni szerver, amin proxmox fut. Az adatokat ZFS-en tárolom. A ZFS alatt két 1,5 TB-os merevlemez van RAID0-ban.

A szerverben 14 GB RAM van jelenleg, ebből a ZFS elvisz ~8 GB-ot. A szerverre maximum 10 felhasználó csatlakozik.

Arra gondoltam, teszek a merevlemezek mellé egy 240GB-os SSD-t, az SLOG, ZIL és/vagy az l2arc számára.

Szerintetek, hogyan lenne érdemes méretezni a cache-t?