ZFS Fan Club

ZFS special device SATA SSD partíción - szegény ember PBS-e

Fórumok

Sziasztok!

Az alapfelállás: Proxmox Backup Server üzemeltetése "olcsóért", majd replikálás máshova. A helyi PBS-re nincs pénz, de azért kellene valami. Kaptam itt javaslatot kollégától NAS-ra, megtárgyaltuk milyen performanciát ad NFS-el egy VM-ben, köszönöm. Mivel cseréljük a szervereket, szabadul fel öregecske hardver, gondoltam rá mi lenne, ha újrahasznosítanánk? Mivel a HDD önmagában nagyon lassú lenne egy garbage collection / verify művelethez, és a gép kevés SATA csatlakozóval rendelkezik, felmerült egy ilyen felállás:

- 2x DC SATA SSD - első partíciókon MDRAID-el a PBS, plusz 1-1 ZFS partíció
- 2x Enterprise HDD - ZFS mirror + special device (lásd az előző pontban)

Ugyan a tárolókat általában "as is" szokás ZFS alá tenni, de nem tiltja semmi hogy partíciókon használjuk, maga a Proxmox is megteszi. A kérdésem, nálam tapasztaltabb kollégákhoz: ha a ZFS "special device" (csak metadata) SATA Enterprise SSD-ken van, az adat maga meg HDD-ken, az a HDD-s alapfelálláshoz képest ugye adna észrevehető sebesség-javulást a garbage collection / verify műveletek alatt? Nem lenne plusz réteg (mint pl. az NFS), mindegyik tároló közvetlen SATA buszra / HBA-ra lenne csatlakoztatva. Mi a véleményetek?

[Megoldva] ZFS root fájlrendszer kérdések (freebsd)

Fórumok

Freebsd rendszer, úgy tűnik, hogy egy zfs fájlrendszerben a root partícióval gondok adódtak:

zpool status -v kimenete:

  pool: zroot
 state: ONLINE
status: One or more devices has experienced an error resulting in data
    corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
    entire pool from backup.
   see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-8A
  scan: scrub repaired 0B in 00:05:39 with 5 errors on Sun Feb  9 01:28:41 2025
config:

    NAME        STATE     READ WRITE CKSUM
    zroot       ONLINE       0     0     0
      nda0p4    ONLINE       4     0     0

errors: Permanent errors have been detected in the following files:

        zroot/ROOT/default:<0x2f897>
        zroot/ROOT/default@migrate:<0x2f897>
        zroot/iocage/jails/adguard/root:<0x39d96>
        /zroot/iocage/jails/adguard/root/usr/src/contrib/file/magic
        zroot/iocage/jails/adguard/root@migrate:/usr/src/contrib/file/README.md
        zroot/iocage/jails/adguard/root@migrate:<0x39d96>
        zroot/iocage/jails/adguard/root@migrate:/usr/src/contrib/file/magic

Egyébként meg ha a magic könyvtárat törölni akarom, akkor ezt kapom:

cd /zroot/iocage/jails/adguard/root/usr/src/contrib/file
rm -rf magic

rm: magic: Input/output error

Amúgy látszólag minden működik, a többi disk, amin adatok vannak rendben vannak (és ott raid van), és a scrub is szépen végigfut ratjuk. De szerencsére mentés is van.

Ez egy olcsó silicon power ssd, nem érte meg az egy évet. Sajnos nem is raid-ben van a root partíció, mert ez úgyis a "system" partíció, bármikor újrahúzom (de hülye vagyok, mennyire nincs időm/kedvem ehhez most éppen). Gondolom ezért érdemes ezt is duplán beletenni a gépbe.

Nem tudom, hogy a silicon power ssd-ket érdemes-e használni, lehet, hogy ez eddig bírta.
Arra gyanakszom, hogy lehetett 1-2 durvább feszültségingadozás, meg volt áramszünet is. Nem raktam a gép elé szünetmentest, vagy valamit ami védené (de nem vagyok ebben biztos, de ez volt az egyetlen furcsaság, ami történt).
Ki szoktam időnként takarítani a gépet, de ebben most vastagon állt a por, sikerült olyan helyre letennem. Nem lepődnék meg, ha ez okozna gondot.

Van esetleg valakinek ötlete, lehet ezzel valamit kezdeni, vagy ez az ssd kuka, rendszert újra kell húzni?
Meg lehet próbálni a root partíciót átköltöztetni másik ssd-re, vagy jobb ezt gyorsan újrahúzni?
Ilyesmire érdemes lehet valami jó toolt használni, hogy gyorsan újra lehessen húzni egy system particiót?
Normál SSD-t érdemes-e ilyen helyre betenni (vagy valamire figyelni kellett volna)?

Köszi szépen

ZFS recovery

Fórumok

Van (volt :-/ ) egy 4 disk-es ZFS RaidZ2 pool-om Ubuntu 22.04 LTS alatt, ami átmeneti disk elérési hibák (táp anomália) miatt kompromittálódott, nem importálható. Mit lehet vele kezdeni?

A gép (HP Microserver G8) kapott egy ideiglenes új tápot, a disk-ek így hibátlanul mennek, I/O hibák, fizikai bad sector-ok nincsenek.

- 'zpool import' felderíti, ráadásul hibátlan, online-nak mutatja a pool-t

- 'zpool import pool' azonnal elszáll disk I/O hibával, de nem közli, melyik disk-el van baja

- 'zpool import -fF pool' 8-10 órányi tekerés után száll el disk I/O hibával, de szintén nem közli, melyik disk-el van baja

A RaidZ2-nek elvileg a 4-ből 2 disk-ről is fel kellene állnia, de ha csak 1-et is kiveszek, azonnal disk hiányra panaszkodik és szintén nem importálható.

 

Milyen további lehetőségek, tool-ok vannak, hogy legalább részlegesen visszanyerhető legyen a pool-on tárolt adat. (Játszós home NAS ~3TB-nyi kacattal, amit ugyan el tudok engedni, ha reménytelen, de azért volt közte ez-az, amit szívesen visszanyernék - na meg, ugye a kihívás. Backup nyilván nincs :-) )

Régen elég komolyan belemásztam a ZFS témába, de ~5 éve kiszálltam ebből a vonalból, ezért sajnos nem csak hogy ennyi lemaradásom van, de még az akkori tudásom is erősen megkopott, így elkél a részletes segítség.

ZFS speed test

Fórumok

Sziasztok!

Tesztelnék egy ój szervert, amelyben 8 db 1.92 TB-os NVMe Datacenter SSD van.
Az alábbi tesztkörnyezetet állítottam össze.

A szerveren Proxmox lesz, VM-ekben pedig 6 db Windows Server (RDP, vállalatirányítás, Firebird szerver, számlázás, könyvelés, bérszámfejtés, ÁNYK, irodai munka fog folyni) és 4 db Samba fájlszerver lesz. Kb. 30 user egyidőben.

Ajánljatok a tesztelésre alkalmas scripteket (bonnie++, fio, iostat, ... megfelelő paraméterekkel), amivel könnyedén el tudom dönteni, milyen kombinációban a leggyorsabb olvasás, írás és egyidejű írás/olvasás közben a rendszer.

Ezzel a scripttel próbálkoztam, de elqrhattam valamit, mert nem látok az eredményekben lényegi különbséget...

Érdekelne egy olyan awk/sed oneliner is, ami a keletkezett eredményfájlokból kigyűjti a lényeget...

3.84 TB használható tárhely bőven elegendő. Elsődleges szempont a lehető legnagyobb IOPS/RW sebesség.

OpenZFS On Linux - NFS4 ACL-ek.

Fórumok

Sziasztok,

 

Most, hogy a TrueNAS Core hirek megerkeztek, gondoltam atallok Scale-re. De nem igazan erzem meg kiforrottnak, voltak vele gondok (foleg AD integracioban) amik Core-nal nem jelentkeztek. Illetve, ugy gondoltam ,hogy ha mar ugyis valltani kell Linuxra, akkor legyen szep homogen a rendszerem es telepitek OpenSUSE-t ZFS-el. (annyira nem hianyzik a szep webui) Megy is minden szepen, Viszont van egy kis gondom a Samba share-eknel.

Az elkepzeles az lenne, hogy a share mindenki szamara elerheto , a jogosultsagokat pedig ACL-ekkel allitanam be. Viszont, meglepodve tapasztalom, hogy mig Scale alatt gond nelkul mukodott az NFS4 ACL , addig "normal" linux alatt csak POSIX-et tudtam beelesiteni (ami azert nem ugyanaz..)

En csinalok valamit rosszul, vagy (Open)ZFS alatt tenyleg csak POSIX van? (eleg gaz lenne, amugy...)

Proxmox -búcsú a bootolástól

Fórumok

Proxmox, zfs bootlemezzel , zfs mirror. Ezeken 3 partició, első kettő a bios, uefi boot partició, a harmadik a zfs. Meghibásodik az első kettő az egyik lemezen, zfs erről nem tud, megy vígan minden. Kövezkező bootoláskor viszont - de addig nem - degraded állaptba kerul a zfs pool.

De mi van akkor , ha nincs újrainditás csak félévente, 3 havonta, és közben a másik lemezen is elszáll az első két partíció. Ez már csak az újrainditáskor derül ki, hibás a két lmez miközben a zfs-nek semmi baja. Hogy lehet ezt észlelni, vagy ez van ? Vagy ez csak főpróba nálam majréból ? 

ZFS csatolása, adatok mentése

Fórumok

Egy ismerős keresett meg az alábbi kérdéssel, én semmit nem tudok a ZFS-ről, hátha tudtok segíteni.

Van 4 db 2 TB-os HDD amikről csak annyi információ van, hogy ZFS-van rajtuk (Ubuntu alatt az fdisk annyit ír ki, hogy Solaris/Apple ZFS), mind a négy lemez egy gépben volt.

Az operációs rendszer ismeretlen.

Fel lehet-e csatolni úgy a lemezeket, hogy az adatok menthetők legyenek róluk.

Köszönöm a segítő válaszokat.