ZFS Fan Club

Proxmox ZFS mirror - szörnyen alacsony I/O és IOPS

Fórumok

Sziasztok!

Kérlek vezessen rá valaki mit néztem be és miért ilyen szörnyen rosszak a sebességek. Adott egy nem mai gyerek HP ProLiant DL20 szerver (E3-1220v5 / 32GB DDR4 UDIMM ECC). Debian 12 alap, Linux 6.8.12-11-pve kernel. Két HDD (WD2000F9YZ-0) és két SSD (WDS500G1R0B). Tudom hogy az SSD-k nem enterprise grade eszközök, de ennél azért többet kellene tudniuk, és a HDD-k esetén is gyanúsan alacsony minden érték. A B140i RAID vezérlő le van tiltva, minden eszköz közvetlenül, AHCI-n elérhető. A partíciók és egyéb hasznos infók:

root@pve:~# fdisk -l
Disk /dev/sdb: 1.82 TiB, 2000398934016 bytes, 3907029168 sectors
Disk model: WDC WD2000F9YZ-0
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: D5DEFE9B-A29D-614F-BBF3-C31770AD9F27

Device          Start        End    Sectors  Size Type
/dev/sdb1        2048 3907012607 3907010560  1.8T Solaris /usr & Apple ZFS
/dev/sdb9  3907012608 3907028991      16384    8M Solaris reserved 1

Disk /dev/sdd: 465.76 GiB, 500107862016 bytes, 976773168 sectors
Disk model: WDC  WDS500G1R0B
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: CD6F9ED7-CD69-48DD-AE75-2320DA87F794

Device       Start       End   Sectors  Size Type
/dev/sdd1       34      2047      2014 1007K BIOS boot
/dev/sdd2     2048   2099199   2097152    1G EFI System
/dev/sdd3  2099200 975175680 973076481  464G Solaris /usr & Apple ZFS

Disk /dev/sda: 1.82 TiB, 2000398934016 bytes, 3907029168 sectors
Disk model: WDC WD2000F9YZ-0
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 654222C6-1214-894C-BF2E-9B003371915C

Device          Start        End    Sectors  Size Type
/dev/sda1        2048 3907012607 3907010560  1.8T Solaris /usr & Apple ZFS
/dev/sda9  3907012608 3907028991      16384    8M Solaris reserved 1

Disk /dev/sdc: 465.76 GiB, 500107862016 bytes, 976773168 sectors
Disk model: WDC  WDS500G1R0B
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 813FCBF3-4AAD-4531-B964-88E750E044DF

Device       Start       End   Sectors  Size Type
/dev/sdc1       34      2047      2014 1007K BIOS boot
/dev/sdc2     2048   2099199   2097152    1G EFI System
/dev/sdc3  2099200 975175680 973076481  464G Solaris /usr & Apple ZFS

==============================

root@pve:~# zfs list
NAME               USED  AVAIL  REFER  MOUNTPOINT
local-zfs-hdd      552K  1.76T    96K  /local-zfs-hdd
rpool             10.9G   435G   104K  /rpool
rpool/ROOT        10.9G   435G    96K  /rpool/ROOT
rpool/ROOT/pve-1  10.9G   435G  10.9G  /
rpool/data          96K   435G    96K  /rpool/data
rpool/var-lib-vz    96K   435G    96K  /var/lib/vz

==============================

root@pve:~# zpool status
  pool: local-zfs-hdd
 state: ONLINE
config:

        NAME                                            STATE     READ WRITE CKSUM
        local-zfs-hdd                                   ONLINE       0     0     0
          mirror-0                                      ONLINE       0     0     0
            ata-WDC_WD2000F9YZ-09N20L1_WD-WMC1P0D9UMLK  ONLINE       0     0     0
            ata-WDC_WD2000F9YZ-09N20L1_WD-WMC1P0E6MPP9  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
config:

        NAME                                               STATE     READ WRITE CKSUM
        rpool                                              ONLINE       0     0     0
          mirror-0                                         ONLINE       0     0     0
            ata-WDC_WDS500G1R0B-68A4Z0_244045800382-part3  ONLINE       0     0     0
            ata-WDC_WDS500G1R0B-68A4Z0_244045800391-part3  ONLINE       0     0     0

errors: No known data errors

És a tesztek. Gyalázatos. Miért?

root@pve:~# fio --name=randwrite_hdd --ioengine=libaio --rw=randwrite --bs=4k --numjobs=4 --size=1G --runtime=15 --group_reporting --iodepth=32 --directory=/local-zfs-hdd/fiotest
randwrite_hdd: (g=0): rw=randwrite, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=32
...
fio-3.33
Starting 4 processes
randwrite_hdd: Laying out IO file (1 file / 1024MiB)
randwrite_hdd: Laying out IO file (1 file / 1024MiB)
randwrite_hdd: Laying out IO file (1 file / 1024MiB)
randwrite_hdd: Laying out IO file (1 file / 1024MiB)
Jobs: 4 (f=4): [w(4)][9.8%][eta 02m:37s]
randwrite_hdd: (groupid=0, jobs=4): err= 0: pid=15611: Tue Jun 24 15:14:43 2025
  write: IOPS=7571, BW=29.6MiB/s (31.0MB/s)(473MiB/15981msec); 0 zone resets
    slat (usec): min=5, max=1472.8k, avg=524.55, stdev=22447.00
    clat (usec): min=5, max=1517.1k, avg=16377.85, stdev=124716.23
     lat (usec): min=510, max=1517.1k, avg=16902.40, stdev=126690.01
    clat percentiles (usec):
     |  1.00th=[    676],  5.00th=[    775], 10.00th=[    832],
     | 20.00th=[    914], 30.00th=[    988], 40.00th=[   1090],
     | 50.00th=[   1205], 60.00th=[   1369], 70.00th=[   1631],
     | 80.00th=[   2245], 90.00th=[   3982], 95.00th=[   8848],
     | 99.00th=[ 859833], 99.50th=[1249903], 99.90th=[1468007],
     | 99.95th=[1468007], 99.99th=[1484784]
   bw (  KiB/s): min= 4892, max=177312, per=100.00%, avg=65378.60, stdev=13260.11, samples=59
   iops        : min= 1221, max=44328, avg=16344.35, stdev=3315.10, samples=59
  lat (usec)   : 10=0.01%, 500=0.01%, 750=3.62%, 1000=28.00%
  lat (msec)   : 2=45.36%, 4=13.05%, 10=5.27%, 20=1.44%, 50=1.60%
  lat (msec)   : 100=0.21%, 250=0.11%, 500=0.20%, 1000=0.20%, 2000=0.92%
  cpu          : usr=0.48%, sys=5.39%, ctx=18019, majf=0, minf=52
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=99.9%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
     issued rwts: total=0,121008,0,0 short=0,0,0,0 dropped=0,0,0,0
     latency   : target=0, window=0, percentile=100.00%, depth=32

Run status group 0 (all jobs):
  WRITE: bw=29.6MiB/s (31.0MB/s), 29.6MiB/s-29.6MiB/s (31.0MB/s-31.0MB/s), io=473MiB (496MB), run=15981-15981msec

==============================

root@pve:~# fio --name=randwrite_ssd --ioengine=libaio --rw=randwrite --bs=4k --numjobs=4 --size=1G --runtime=15 --group_reporting --iodepth=32 --directory=/rpool/data/fiotest
randwrite_ssd: (g=0): rw=randwrite, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=32
...
fio-3.33
Starting 4 processes
randwrite_ssd: Laying out IO file (1 file / 1024MiB)
randwrite_ssd: Laying out IO file (1 file / 1024MiB)
randwrite_ssd: Laying out IO file (1 file / 1024MiB)
randwrite_ssd: Laying out IO file (1 file / 1024MiB)
Jobs: 4 (f=4): [w(4)][12.3%][eta 01m:54s]
randwrite_ssd: (groupid=0, jobs=4): err= 0: pid=15942: Tue Jun 24 15:16:26 2025
  write: IOPS=9251, BW=36.1MiB/s (37.9MB/s)(584MiB/16165msec); 0 zone resets
    slat (usec): min=5, max=1657.8k, avg=427.76, stdev=18378.22
    clat (usec): min=4, max=1683.2k, avg=13404.34, stdev=101949.72
     lat (usec): min=531, max=1683.2k, avg=13832.10, stdev=103565.46
    clat percentiles (usec):
     |  1.00th=[    717],  5.00th=[    840], 10.00th=[    914],
     | 20.00th=[   1020], 30.00th=[   1106], 40.00th=[   1205],
     | 50.00th=[   1319], 60.00th=[   1450], 70.00th=[   1745],
     | 80.00th=[   2606], 90.00th=[   4686], 95.00th=[  10683],
     | 99.00th=[ 484443], 99.50th=[ 876610], 99.90th=[1551893],
     | 99.95th=[1652556], 99.99th=[1686111]
   bw (  KiB/s): min= 1800, max=189069, per=100.00%, avg=62067.11, stdev=12682.54, samples=76
   iops        : min=  450, max=47267, avg=15516.63, stdev=3170.64, samples=76
  lat (usec)   : 10=0.01%, 750=1.58%, 1000=16.30%
  lat (msec)   : 2=56.33%, 4=13.33%, 10=7.19%, 20=1.92%, 50=1.71%
  lat (msec)   : 100=0.24%, 250=0.08%, 500=0.33%, 750=0.41%, 1000=0.17%
  lat (msec)   : 2000=0.41%
  cpu          : usr=0.60%, sys=6.82%, ctx=23038, majf=0, minf=52
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=99.9%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
     issued rwts: total=0,149558,0,0 short=0,0,0,0 dropped=0,0,0,0
     latency   : target=0, window=0, percentile=100.00%, depth=32

Run status group 0 (all jobs):
  WRITE: bw=36.1MiB/s (37.9MB/s), 36.1MiB/s-36.1MiB/s (37.9MB/s-37.9MB/s), io=584MiB (613MB), run=16165-16165msec

Előre is hálásan köszönöm a segítséget!

[Megoldva] ZFS root fájlrendszer kérdések (freebsd)

Fórumok

Freebsd rendszer, úgy tűnik, hogy egy zfs fájlrendszerben a root partícióval gondok adódtak:

zpool status -v kimenete:

  pool: zroot
 state: ONLINE
status: One or more devices has experienced an error resulting in data
    corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
    entire pool from backup.
   see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-8A
  scan: scrub repaired 0B in 00:05:39 with 5 errors on Sun Feb  9 01:28:41 2025
config:

    NAME        STATE     READ WRITE CKSUM
    zroot       ONLINE       0     0     0
      nda0p4    ONLINE       4     0     0

errors: Permanent errors have been detected in the following files:

        zroot/ROOT/default:<0x2f897>
        zroot/ROOT/default@migrate:<0x2f897>
        zroot/iocage/jails/adguard/root:<0x39d96>
        /zroot/iocage/jails/adguard/root/usr/src/contrib/file/magic
        zroot/iocage/jails/adguard/root@migrate:/usr/src/contrib/file/README.md
        zroot/iocage/jails/adguard/root@migrate:<0x39d96>
        zroot/iocage/jails/adguard/root@migrate:/usr/src/contrib/file/magic

Egyébként meg ha a magic könyvtárat törölni akarom, akkor ezt kapom:

cd /zroot/iocage/jails/adguard/root/usr/src/contrib/file
rm -rf magic

rm: magic: Input/output error

Amúgy látszólag minden működik, a többi disk, amin adatok vannak rendben vannak (és ott raid van), és a scrub is szépen végigfut ratjuk. De szerencsére mentés is van.

Ez egy olcsó silicon power ssd, nem érte meg az egy évet. Sajnos nem is raid-ben van a root partíció, mert ez úgyis a "system" partíció, bármikor újrahúzom (de hülye vagyok, mennyire nincs időm/kedvem ehhez most éppen). Gondolom ezért érdemes ezt is duplán beletenni a gépbe.

Nem tudom, hogy a silicon power ssd-ket érdemes-e használni, lehet, hogy ez eddig bírta.
Arra gyanakszom, hogy lehetett 1-2 durvább feszültségingadozás, meg volt áramszünet is. Nem raktam a gép elé szünetmentest, vagy valamit ami védené (de nem vagyok ebben biztos, de ez volt az egyetlen furcsaság, ami történt).
Ki szoktam időnként takarítani a gépet, de ebben most vastagon állt a por, sikerült olyan helyre letennem. Nem lepődnék meg, ha ez okozna gondot.

Van esetleg valakinek ötlete, lehet ezzel valamit kezdeni, vagy ez az ssd kuka, rendszert újra kell húzni?
Meg lehet próbálni a root partíciót átköltöztetni másik ssd-re, vagy jobb ezt gyorsan újrahúzni?
Ilyesmire érdemes lehet valami jó toolt használni, hogy gyorsan újra lehessen húzni egy system particiót?
Normál SSD-t érdemes-e ilyen helyre betenni (vagy valamire figyelni kellett volna)?

Köszi szépen

[MEGOLDVA] Degraded pool-ban winyó cseréje

Fórumok

Sziasztok. Adott egy proxmox cluster, amiben az egyik tagnak az egyik pooljában van egy hibás winyó:

 

root@cluster02:~# zpool status -v ha-pool
  pool: ha-pool
 state: DEGRADED
status: One or more devices are faulted in response to persistent errors.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
        repaired.
  scan: scrub repaired 524K in 04:03:39 with 0 errors on Sun Nov 10 04:27:41 2024
config:

        NAME                              STATE     READ WRITE CKSUM
        ha-pool                           DEGRADED     0     0     0
          mirror-0                        DEGRADED     0     0     0
            scsi-35000c500a0136c43        ONLINE       0     0     0
            scsi-35000c500a7e4954b        FAULTED     91     0    38  too many errors
          mirror-1                        ONLINE       0     0     0
            scsi-35000c5007272aaff        ONLINE       0     0     0
            scsi-35000c50071bd04ff        ONLINE       0     0     0
          mirror-2                        ONLINE       0     0     0
            wwn-0x5000c50071bda707-part4  ONLINE       0     0     0
            wwn-0x5000c50071bd0dab-part4  ONLINE       0     0     0

errors: No known data errors

Kicserélnénk holnap ezt a winyót, de a lépésekben nem vagyok biztos. Az alábbi lépések megfelelőek, vagy kihagytam valamit?

1. zpool offline ha-pool /dev/disk/by-id/scsi-35000c500a7e4954b

2. Fizikailag kicseréljük a winyót.

3. lsblk -val megnézem, hogy látható-e az új winyó, majd ls -l /dev/disk/by-id/-al megnézem a disk-id-ját.

4. zpool replace ha-pool /dev/disk/by-id/scsi-35000c500a7e4954b /dev/disk/by-id/NEW-DISK-ID

5. zpool status -v ha-pool   -> itt látnom kell, hogy resilvering beindult

6. Ha minden online lett, rendben van, akkor zpool remove ha-pool /dev/disk/by-id/scsi-35000c500a7e4954b vagy zpool detach ha-pool /dev/disk/by-id/scsi-35000c500a7e4954b kell?

sanoid/syncoid nem értem

Fórumok

van 2 zfs poolom: mediapool, backuppool.

cat /etc/sanoid/sanoid.conf
############################################################
# /etc/sanoid/sanoid.conf file.
############################################################

[mediapool]
use_template = production
recursive = yes
process_children_only = yes

[backuppool]
use_template = monthly_backup
recursive = yes

#############################
# templates below this line #
#############################

[template_production]
frequently = 0
hourly = 0
daily = 7
weekly = 4
monthly = 0
yearly = 0
autosnap = yes
autoprune = yes

[template_monthly_backup]
frequently = 0
hourly = 0
daily = 7
weekly = 4
monthly = 6
yearly = 0
autosnap = yes
autoprune = yes

minden nap lefut crontabból a mentés:

crontab -l

# Wake up machine at 3 AM
#0 3 * * * rtcwake -m no -s $(($(date -d '03:00' +%s) - $(date +%s)))

# Run sanoid job at 3:10 AM (assuming it's installed and configured properly)
35 3 * * * /usr/sbin/sanoid --run --verbose

# Run syncoid job (adjust with your specific syncoid configuration)
1 3 * * * /usr/sbin/syncoid --recursive mediapool backuppool/mediapool

Az eredmény viszont nem egyezik a konfigban beállítottakkal. Konkrétan azt látom, hogy weekly nem igazán készül, csak néhány esetben:

 zfs list -t snapshot
NAME                                                                                USED  AVAIL  REFER  MOUNTPOINT
backuppool@autosnap_2025-01-01_17:27:54_monthly                                      64K      -    96K  -
backuppool@autosnap_2025-01-06_19:24:05_weekly                                        0B      -    96K  -
backuppool@autosnap_2025-01-07_08:30:15_weekly                                        0B      -    96K  -
backuppool@autosnap_2025-01-10_03:10:03_daily                                         0B      -    96K  -
backuppool@autosnap_2025-01-11_03:10:03_daily                                         0B      -    96K  -
backuppool@autosnap_2025-01-12_03:11:01_daily                                         0B      -    96K  -
backuppool@autosnap_2025-01-13_03:35:03_daily                                         0B      -    96K  -
backuppool@autosnap_2025-01-13_23:33:44_weekly                                        0B      -    96K  -
backuppool@autosnap_2025-01-14_03:35:03_daily                                         0B      -    96K  -
backuppool@autosnap_2025-01-15_03:35:04_daily                                         0B      -    96K  -
backuppool@autosnap_2025-01-16_03:35:03_daily                                        56K      -    96K  -
backuppool@autosnap_2025-01-17_03:35:03_daily                                         0B      -    96K  -
backuppool/mediapool@syncoid_cookiemonster_2025-01-17:03:01:01-GMT01:00               0B      -   120K  -
backuppool/mediapool@autosnap_2025-01-17_03:35:01_monthly                             0B      -   120K  -
backuppool/mediapool@autosnap_2025-01-17_03:35:01_weekly                              0B      -   120K  -
backuppool/mediapool@autosnap_2025-01-17_03:35:01_daily                               0B      -   120K  -
backuppool/mediapool/archive@autosnap_2025-01-06_20:28:54_weekly                      0B      -   908G  -
backuppool/mediapool/archive@autosnap_2025-01-07_08:30:16_weekly                      0B      -   908G  -
backuppool/mediapool/archive@autosnap_2025-01-10_03:10:02_daily                       0B      -   933G  -
backuppool/mediapool/archive@autosnap_2025-01-11_03:10:01_daily                       0B      -   933G  -
backuppool/mediapool/archive@autosnap_2025-01-12_03:10:39_daily                       0B      -   968G  -
backuppool/mediapool/archive@autosnap_2025-01-13_03:35:04_daily                       0B      -   968G  -
backuppool/mediapool/archive@autosnap_2025-01-13_23:33:44_weekly                     88K      -   969G  -
backuppool/mediapool/archive@autosnap_2025-01-14_03:35:03_daily                       0B      -   975G  -
backuppool/mediapool/archive@autosnap_2025-01-15_03:35:04_daily                       0B      -   975G  -
backuppool/mediapool/archive@autosnap_2025-01-16_03:35:03_daily                       0B      -   975G  -
backuppool/mediapool/archive@syncoid_cookiemonster_2025-01-17:03:01:02-GMT01:00       0B      -   975G  -
backuppool/mediapool/archive@autosnap_2025-01-17_03:35:02_monthly                     0B      -   975G  -
backuppool/mediapool/archive@autosnap_2025-01-17_03:35:02_daily                       0B      -   975G  -
backuppool/mediapool/backups@autosnap_2025-01-06_20:28:54_weekly                    135G      -  2.07T  -
backuppool/mediapool/backups@autosnap_2025-01-07_08:30:17_weekly                   33.8G      -  2.12T  -
backuppool/mediapool/backups@autosnap_2025-01-10_03:10:03_daily                       0B      -  2.13T  -
backuppool/mediapool/backups@autosnap_2025-01-11_03:10:01_daily                       0B      -  2.13T  -
backuppool/mediapool/backups@autosnap_2025-01-12_03:10:47_daily                       0B      -  2.15T  -
backuppool/mediapool/backups@autosnap_2025-01-13_03:35:05_daily                       0B      -  2.15T  -
backuppool/mediapool/backups@autosnap_2025-01-13_23:33:45_weekly                      0B      -  2.30T  -
backuppool/mediapool/backups@autosnap_2025-01-14_03:35:03_daily                       0B      -  2.30T  -
backuppool/mediapool/backups@syncoid_cookiemonster_2025-01-15:03:01:05-GMT01:00       0B      -  2.30T  -
backuppool/mediapool/backups@autosnap_2025-01-15_03:35:03_monthly                     0B      -  2.30T  -
backuppool/mediapool/backups@autosnap_2025-01-15_03:35:03_daily                       0B      -  2.30T  -
backuppool/mediapool/backups@autosnap_2025-01-16_03:35:04_daily                     120K      -  2.30T  -
backuppool/mediapool/backups@autosnap_2025-01-17_03:35:02_daily                       0B      -  2.30T  -
backuppool/mediapool/beni@autosnap_2025-01-06_20:28:55_weekly                         0B      -   342G  -
backuppool/mediapool/beni@autosnap_2025-01-07_08:30:16_weekly                         0B      -   342G  -
backuppool/mediapool/beni@autosnap_2025-01-10_03:10:02_daily                          0B      -   343G  -
backuppool/mediapool/beni@autosnap_2025-01-11_03:10:03_daily                          0B      -   343G  -
backuppool/mediapool/beni@autosnap_2025-01-12_03:10:57_daily                          0B      -   342G  -
backuppool/mediapool/beni@autosnap_2025-01-13_03:35:01_daily                          0B      -   342G  -
backuppool/mediapool/beni@autosnap_2025-01-13_23:33:46_weekly                         0B      -   339G  -
backuppool/mediapool/beni@autosnap_2025-01-14_03:35:03_daily                          0B      -   339G  -
backuppool/mediapool/beni@autosnap_2025-01-15_03:35:01_daily                        107M      -   333G  -
backuppool/mediapool/beni@syncoid_cookiemonster_2025-01-16:03:01:05-GMT01:00          0B      -   334G  -
backuppool/mediapool/beni@autosnap_2025-01-16_03:35:03_monthly                        0B      -   334G  -
backuppool/mediapool/beni@autosnap_2025-01-16_03:35:03_daily                          0B      -   334G  -
backuppool/mediapool/beni@autosnap_2025-01-17_03:35:04_daily                          0B      -   334G  -
backuppool/mediapool/movies@autosnap_2025-01-06_20:28:55_weekly                       0B      -  91.1G  -
backuppool/mediapool/movies@autosnap_2025-01-07_08:30:14_weekly                       0B      -  91.1G  -
backuppool/mediapool/movies@autosnap_2025-01-10_03:10:01_daily                        0B      -  91.1G  -
backuppool/mediapool/movies@autosnap_2025-01-11_03:10:02_daily                        0B      -  91.1G  -
backuppool/mediapool/movies@autosnap_2025-01-12_03:10:05_daily                        0B      -  91.1G  -
backuppool/mediapool/movies@autosnap_2025-01-13_03:35:03_daily                        0B      -  91.1G  -
backuppool/mediapool/movies@autosnap_2025-01-13_23:33:44_weekly                       0B      -  91.1G  -
backuppool/mediapool/movies@autosnap_2025-01-14_03:35:04_daily                        0B      -  91.1G  -
backuppool/mediapool/movies@autosnap_2025-01-15_03:35:02_daily                        0B      -  91.1G  -
backuppool/mediapool/movies@syncoid_cookiemonster_2025-01-16:03:01:25-GMT01:00        0B      -  91.1G  -
backuppool/mediapool/movies@autosnap_2025-01-16_03:35:02_monthly                      0B      -  91.1G  -
backuppool/mediapool/movies@autosnap_2025-01-16_03:35:02_daily                        0B      -  91.1G  -
backuppool/mediapool/movies@autosnap_2025-01-17_03:35:02_daily                        0B      -  91.1G  -
backuppool/mediapool/sorozatok@autosnap_2025-01-06_20:28:54_weekly                    0B      -   284G  -
backuppool/mediapool/sorozatok@autosnap_2025-01-07_08:30:13_weekly                    0B      -   284G  -
backuppool/mediapool/sorozatok@autosnap_2025-01-10_03:10:02_daily                    80K      -   260G  -
backuppool/mediapool/sorozatok@autosnap_2025-01-11_03:10:03_daily                  8.01G      -   268G  -
backuppool/mediapool/sorozatok@autosnap_2025-01-12_03:10:54_daily                    64K      -   233G  -
backuppool/mediapool/sorozatok@autosnap_2025-01-13_03:35:02_daily                    64K      -   242G  -
backuppool/mediapool/sorozatok@autosnap_2025-01-13_23:33:45_weekly                   96K      -   236G  -
backuppool/mediapool/sorozatok@autosnap_2025-01-14_03:35:04_daily                     0B      -   230G  -
backuppool/mediapool/sorozatok@autosnap_2025-01-15_03:35:03_daily                     0B      -   230G  -
backuppool/mediapool/sorozatok@autosnap_2025-01-16_03:35:04_daily                     0B      -   231G  -
backuppool/mediapool/sorozatok@syncoid_cookiemonster_2025-01-17:03:01:11-GMT01:00     0B      -   231G  -
backuppool/mediapool/sorozatok@autosnap_2025-01-17_03:35:02_monthly                   0B      -   231G  -
backuppool/mediapool/sorozatok@autosnap_2025-01-17_03:35:02_daily                     0B      -   231G  -
mediapool@syncoid_cookiemonster_2025-01-17:03:01:01-GMT01:00                          0B      -   174K  -
mediapool/archive@autosnap_2025-01-06_20:28:54_weekly                                 0B      -   907G  -
mediapool/archive@autosnap_2025-01-07_08:30:16_weekly                                 0B      -   907G  -
mediapool/archive@autosnap_2025-01-10_03:10:02_daily                                  0B      -   932G  -
mediapool/archive@autosnap_2025-01-11_03:10:01_daily                                  0B      -   932G  -
mediapool/archive@autosnap_2025-01-12_03:10:39_daily                                  0B      -   967G  -
mediapool/archive@autosnap_2025-01-13_03:35:04_daily                                  0B      -   967G  -
mediapool/archive@autosnap_2025-01-13_23:33:44_weekly                               128K      -   969G  -
mediapool/archive@autosnap_2025-01-14_03:35:03_daily                                  0B      -   975G  -
mediapool/archive@autosnap_2025-01-15_03:35:04_daily                                  0B      -   975G  -
mediapool/archive@autosnap_2025-01-16_03:35:03_daily                                  0B      -   975G  -
mediapool/archive@syncoid_cookiemonster_2025-01-17:03:01:02-GMT01:00                  0B      -   975G  -
mediapool/archive@autosnap_2025-01-17_03:35:04_daily                                  0B      -   975G  -
mediapool/backups@autosnap_2025-01-06_20:28:54_weekly                               135G      -  2.07T  -
mediapool/backups@autosnap_2025-01-07_08:30:17_weekly                              33.8G      -  2.12T  -
mediapool/backups@autosnap_2025-01-10_03:10:03_daily                                  0B      -  2.13T  -
mediapool/backups@autosnap_2025-01-11_03:10:01_daily                                  0B      -  2.13T  -
mediapool/backups@autosnap_2025-01-12_03:10:47_daily                                  0B      -  2.14T  -
mediapool/backups@autosnap_2025-01-13_03:35:05_daily                                  0B      -  2.14T  -
mediapool/backups@autosnap_2025-01-13_23:33:45_weekly                                 0B      -  2.30T  -
mediapool/backups@autosnap_2025-01-14_03:35:03_daily                                  0B      -  2.30T  -
mediapool/backups@syncoid_cookiemonster_2025-01-15:03:01:05-GMT01:00                  0B      -  2.30T  -
mediapool/backups@autosnap_2025-01-15_03:35:03_daily                                  0B      -  2.30T  -
mediapool/backups@syncoid_cookiemonster_2025-01-16:03:01:04-GMT01:00                  0B      -  2.30T  -
mediapool/backups@autosnap_2025-01-16_03:35:02_daily                                  0B      -  2.30T  -
mediapool/backups@syncoid_cookiemonster_2025-01-17:03:01:09-GMT01:00                  0B      -  2.30T  -
mediapool/backups@autosnap_2025-01-17_03:35:02_daily                                  0B      -  2.30T  -
mediapool/beni@autosnap_2025-01-06_20:28:55_weekly                                    0B      -   342G  -
mediapool/beni@autosnap_2025-01-07_08:30:16_weekly                                    0B      -   342G  -
mediapool/beni@autosnap_2025-01-10_03:10:02_daily                                     0B      -   343G  -
mediapool/beni@autosnap_2025-01-11_03:10:03_daily                                     0B      -   343G  -
mediapool/beni@autosnap_2025-01-12_03:10:57_daily                                     0B      -   341G  -
mediapool/beni@autosnap_2025-01-13_03:35:01_daily                                     0B      -   341G  -
mediapool/beni@autosnap_2025-01-13_23:33:46_weekly                                    0B      -   338G  -
mediapool/beni@autosnap_2025-01-14_03:35:03_daily                                     0B      -   338G  -
mediapool/beni@autosnap_2025-01-15_03:35:01_daily                                   109M      -   333G  -
mediapool/beni@syncoid_cookiemonster_2025-01-16:03:01:05-GMT01:00                     0B      -   334G  -
mediapool/beni@autosnap_2025-01-16_03:35:03_daily                                     0B      -   334G  -
mediapool/beni@syncoid_cookiemonster_2025-01-17:03:01:10-GMT01:00                     0B      -   334G  -
mediapool/beni@autosnap_2025-01-17_03:35:04_daily                                     0B      -   334G  -
mediapool/movies@autosnap_2025-01-06_20:28:55_weekly                                  0B      -  91.0G  -
mediapool/movies@autosnap_2025-01-07_08:30:14_weekly                                  0B      -  91.0G  -
mediapool/movies@autosnap_2025-01-10_03:10:01_daily                                   0B      -  91.0G  -
mediapool/movies@autosnap_2025-01-11_03:10:02_daily                                   0B      -  91.0G  -
mediapool/movies@autosnap_2025-01-12_03:10:05_daily                                   0B      -  91.0G  -
mediapool/movies@autosnap_2025-01-13_03:35:03_daily                                   0B      -  91.0G  -
mediapool/movies@autosnap_2025-01-13_23:33:44_weekly                                  0B      -  91.0G  -
mediapool/movies@autosnap_2025-01-14_03:35:04_daily                                   0B      -  91.0G  -
mediapool/movies@autosnap_2025-01-15_03:35:02_daily                                   0B      -  91.0G  -
mediapool/movies@syncoid_cookiemonster_2025-01-16:03:01:25-GMT01:00                   0B      -  91.0G  -
mediapool/movies@autosnap_2025-01-16_03:35:02_daily                                   0B      -  91.0G  -
mediapool/movies@syncoid_cookiemonster_2025-01-17:03:01:10-GMT01:00                   0B      -  91.0G  -
mediapool/movies@autosnap_2025-01-17_03:35:04_daily                                   0B      -  91.0G  -
mediapool/sorozatok@autosnap_2025-01-06_20:28:54_weekly                               0B      -   284G  -
mediapool/sorozatok@autosnap_2025-01-07_08:30:13_weekly                               0B      -   284G  -
mediapool/sorozatok@autosnap_2025-01-10_03:10:02_daily                              116K      -   260G  -
mediapool/sorozatok@autosnap_2025-01-11_03:10:03_daily                             8.01G      -   268G  -
mediapool/sorozatok@autosnap_2025-01-12_03:10:54_daily                               93K      -   233G  -
mediapool/sorozatok@autosnap_2025-01-13_03:35:02_daily                               93K      -   242G  -
mediapool/sorozatok@autosnap_2025-01-13_23:33:45_weekly                             140K      -   236G  -
mediapool/sorozatok@autosnap_2025-01-14_03:35:04_daily                                0B      -   230G  -
mediapool/sorozatok@autosnap_2025-01-15_03:35:03_daily                                0B      -   230G  -
mediapool/sorozatok@autosnap_2025-01-16_03:35:04_daily                                0B      -   231G  -
mediapool/sorozatok@syncoid_cookiemonster_2025-01-17:03:01:11-GMT01:00                0B      -   231G  -
mediapool/sorozatok@autosnap_2025-01-17_03:35:04_daily                                0B      -   231G  -

crontab mailek:

Subject: Cron <root@cookiemonster> /usr/sbin/sanoid --run --verbose

INFO: cache expired - updating from zfs list.
INFO: taking snapshots...
taking snapshot backuppool/mediapool@autosnap_2025-01-17_03:35:01_monthly
taking snapshot backuppool/mediapool@autosnap_2025-01-17_03:35:01_weekly
taking snapshot backuppool/mediapool@autosnap_2025-01-17_03:35:01_daily
taking snapshot backuppool/mediapool/archive@autosnap_2025-01-17_03:35:02_monthly
taking snapshot backuppool/mediapool/archive@autosnap_2025-01-17_03:35:02_daily
taking snapshot backuppool/mediapool/sorozatok@autosnap_2025-01-17_03:35:02_monthly
taking snapshot backuppool/mediapool/sorozatok@autosnap_2025-01-17_03:35:02_daily
taking snapshot backuppool/mediapool/movies@autosnap_2025-01-17_03:35:02_daily
taking snapshot backuppool/mediapool/backups@autosnap_2025-01-17_03:35:02_daily
taking snapshot mediapool/backups@autosnap_2025-01-17_03:35:02_daily
taking snapshot backuppool@autosnap_2025-01-17_03:35:03_daily
taking snapshot mediapool/archive@autosnap_2025-01-17_03:35:04_daily
taking snapshot mediapool/sorozatok@autosnap_2025-01-17_03:35:04_daily
taking snapshot mediapool/movies@autosnap_2025-01-17_03:35:04_daily
taking snapshot mediapool/beni@autosnap_2025-01-17_03:35:04_daily
taking snapshot backuppool/mediapool/beni@autosnap_2025-01-17_03:35:04_daily
INFO: cache expired - updating from zfs list.
INFO: pruning snapshots...
INFO: pruning backuppool/mediapool/beni@autosnap_2025-01-09_03:10:02_daily ...
INFO: removing destroyed snapshots from cache.
INFO: pruning mediapool/beni@autosnap_2025-01-09_03:10:02_daily ...
INFO: removing destroyed snapshots from cache.
INFO: pruning mediapool/archive@autosnap_2025-01-09_03:10:01_daily ...
INFO: removing destroyed snapshots from cache.
INFO: pruning mediapool/sorozatok@autosnap_2025-01-09_03:10:04_daily ...
INFO: removing destroyed snapshots from cache.
INFO: pruning mediapool/movies@autosnap_2025-01-09_03:10:04_daily ...
INFO: removing destroyed snapshots from cache.
INFO: pruning mediapool/backups@autosnap_2025-01-09_03:10:02_daily ...
INFO: removing destroyed snapshots from cache.
INFO: pruning backuppool@autosnap_2025-01-09_03:10:02_daily ...
INFO: removing destroyed snapshots from cache.
INFO: pruning backuppool/mediapool/backups@autosnap_2025-01-09_03:10:02_daily ...
INFO: removing destroyed snapshots from cache.
INFO: pruning backuppool/mediapool/movies@autosnap_2025-01-09_03:10:04_daily ...
INFO: removing destroyed snapshots from cache.
INFO: pruning backuppool/mediapool/sorozatok@autosnap_2025-01-09_03:10:04_daily ...
INFO: removing destroyed snapshots from cache.
INFO: pruning backuppool/mediapool/archive@autosnap_2025-01-09_03:10:01_daily ...
INFO: removing destroyed snapshots from cache.

Ezen kívül a syncoid is szarakodik:

Subject: Cron <root@cookiemonster> /usr/sbin/syncoid --recursive mediapool backuppool/mediapool

Sending incremental mediapool@syncoid_cookiemonster_2025-01-16:03:01:01-GMT01:00 ... syncoid_cookiemonster_2025-01-17:03:01:01-GMT01:00 (~+4 KB):
Sending incremental mediapool/archive@syncoid_cookiemonster_2025-01-16:03:01:02-GMT01:00 ...
+syncoid_cookiemonster_2025-01-17:03:01:02-GMT01:00 (~ 4 KB):
Sending incremental mediapool/backups@syncoid_cookiemonster_2025-01-15:03:01:05-GMT01:00 ...
+syncoid_cookiemonster_2025-01-17:03:01:09-GMT01:00 (~ 1.4 GB):
cannot restore to backuppool/mediapool/backups@autosnap_2025-01-15_03:35:03_daily: destination already exists
mbuffer: error: outputThread: error writing to <stdout> at offset 0x20000: Broken pipe
mbuffer: warning: error during output to <stdout>: Broken pipe
CRITICAL ERROR:  zfs send  -I 'mediapool/backups'@'syncoid_cookiemonster_2025-01-15:03:01:05-GMT01:00'
+'mediapool/backups'@'syncoid_cookiemonster_2025-01-17:03:01:09-GMT01:00' | mbuffer  -q -s 128k -m 128M | pv -p -t -e -r -b -s 1482611720
+|  zfs receive  -s -F 'backuppool/mediapool/backups' 2>&1 failed: 256 at /usr/sbin/syncoid line 889.
Sending incremental mediapool/beni@syncoid_cookiemonster_2025-01-16:03:01:05-GMT01:00 ...
+syncoid_cookiemonster_2025-01-17:03:01:10-GMT01:00 (~ 4 KB):
cannot restore to backuppool/mediapool/beni@autosnap_2025-01-16_03:35:03_daily: destination already exists
CRITICAL ERROR:  zfs send  -I 'mediapool/beni'@'syncoid_cookiemonster_2025-01-16:03:01:05-GMT01:00'
+'mediapool/beni'@'syncoid_cookiemonster_2025-01-17:03:01:10-GMT01:00' | mbuffer  -q -s 128k -m 128M | pv -p -t -e -r -b -s 4096 |  zfs
+receive  -s -F 'backuppool/mediapool/beni' 2>&1 failed: 256 at /usr/sbin/syncoid line 889.
Sending incremental mediapool/movies@syncoid_cookiemonster_2025-01-16:03:01:25-GMT01:00 ...
+syncoid_cookiemonster_2025-01-17:03:01:10-GMT01:00 (~ 4 KB):
cannot restore to backuppool/mediapool/movies@autosnap_2025-01-16_03:35:02_daily: destination already exists
CRITICAL ERROR:  zfs send  -I 'mediapool/movies'@'syncoid_cookiemonster_2025-01-16:03:01:25-GMT01:00'
+'mediapool/movies'@'syncoid_cookiemonster_2025-01-17:03:01:10-GMT01:00' | mbuffer  -q -s 128k -m 128M | pv -p -t -e -r -b -s 4096 |  zfs
+receive  -s -F 'backuppool/mediapool/movies' 2>&1 failed: 256 at /usr/sbin/syncoid line 889.
Sending incremental mediapool/sorozatok@syncoid_cookiemonster_2025-01-16:03:01:26-GMT01:00 ...
+syncoid_cookiemonster_2025-01-17:03:01:11-GMT01:00 (~ 4 KB):

Ha kitörlöm amikre panaszkodik és lefuttatom kézzel, akkor nincs hiba, illetve a sanoidot kézzel futtatva is máshogy viselkedik, pl. weekly-ket is létrehoz.

Érti ezt valaki?

ZFS recovery

Fórumok

Van (volt :-/ ) egy 4 disk-es ZFS RaidZ2 pool-om Ubuntu 22.04 LTS alatt, ami átmeneti disk elérési hibák (táp anomália) miatt kompromittálódott, nem importálható. Mit lehet vele kezdeni?

A gép (HP Microserver G8) kapott egy ideiglenes új tápot, a disk-ek így hibátlanul mennek, I/O hibák, fizikai bad sector-ok nincsenek.

- 'zpool import' felderíti, ráadásul hibátlan, online-nak mutatja a pool-t

- 'zpool import pool' azonnal elszáll disk I/O hibával, de nem közli, melyik disk-el van baja

- 'zpool import -fF pool' 8-10 órányi tekerés után száll el disk I/O hibával, de szintén nem közli, melyik disk-el van baja

A RaidZ2-nek elvileg a 4-ből 2 disk-ről is fel kellene állnia, de ha csak 1-et is kiveszek, azonnal disk hiányra panaszkodik és szintén nem importálható.

 

Milyen további lehetőségek, tool-ok vannak, hogy legalább részlegesen visszanyerhető legyen a pool-on tárolt adat. (Játszós home NAS ~3TB-nyi kacattal, amit ugyan el tudok engedni, ha reménytelen, de azért volt közte ez-az, amit szívesen visszanyernék - na meg, ugye a kihívás. Backup nyilván nincs :-) )

Régen elég komolyan belemásztam a ZFS témába, de ~5 éve kiszálltam ebből a vonalból, ezért sajnos nem csak hogy ennyi lemaradásom van, de még az akkori tudásom is erősen megkopott, így elkél a részletes segítség.

ZFS speed test

Fórumok

Sziasztok!

Tesztelnék egy ój szervert, amelyben 8 db 1.92 TB-os NVMe Datacenter SSD van.
Az alábbi tesztkörnyezetet állítottam össze.

A szerveren Proxmox lesz, VM-ekben pedig 6 db Windows Server (RDP, vállalatirányítás, Firebird szerver, számlázás, könyvelés, bérszámfejtés, ÁNYK, irodai munka fog folyni) és 4 db Samba fájlszerver lesz. Kb. 30 user egyidőben.

Ajánljatok a tesztelésre alkalmas scripteket (bonnie++, fio, iostat, ... megfelelő paraméterekkel), amivel könnyedén el tudom dönteni, milyen kombinációban a leggyorsabb olvasás, írás és egyidejű írás/olvasás közben a rendszer.

Ezzel a scripttel próbálkoztam, de elqrhattam valamit, mert nem látok az eredményekben lényegi különbséget...

Érdekelne egy olyan awk/sed oneliner is, ami a keletkezett eredményfájlokból kigyűjti a lényeget...

3.84 TB használható tárhely bőven elegendő. Elsődleges szempont a lehető legnagyobb IOPS/RW sebesség.

OpenZFS On Linux - NFS4 ACL-ek.

Fórumok

Sziasztok,

 

Most, hogy a TrueNAS Core hirek megerkeztek, gondoltam atallok Scale-re. De nem igazan erzem meg kiforrottnak, voltak vele gondok (foleg AD integracioban) amik Core-nal nem jelentkeztek. Illetve, ugy gondoltam ,hogy ha mar ugyis valltani kell Linuxra, akkor legyen szep homogen a rendszerem es telepitek OpenSUSE-t ZFS-el. (annyira nem hianyzik a szep webui) Megy is minden szepen, Viszont van egy kis gondom a Samba share-eknel.

Az elkepzeles az lenne, hogy a share mindenki szamara elerheto , a jogosultsagokat pedig ACL-ekkel allitanam be. Viszont, meglepodve tapasztalom, hogy mig Scale alatt gond nelkul mukodott az NFS4 ACL , addig "normal" linux alatt csak POSIX-et tudtam beelesiteni (ami azert nem ugyanaz..)

En csinalok valamit rosszul, vagy (Open)ZFS alatt tenyleg csak POSIX van? (eleg gaz lenne, amugy...)

Proxmox -búcsú a bootolástól

Fórumok

Proxmox, zfs bootlemezzel , zfs mirror. Ezeken 3 partició, első kettő a bios, uefi boot partició, a harmadik a zfs. Meghibásodik az első kettő az egyik lemezen, zfs erről nem tud, megy vígan minden. Kövezkező bootoláskor viszont - de addig nem - degraded állaptba kerul a zfs pool.

De mi van akkor , ha nincs újrainditás csak félévente, 3 havonta, és közben a másik lemezen is elszáll az első két partíció. Ez már csak az újrainditáskor derül ki, hibás a két lmez miközben a zfs-nek semmi baja. Hogy lehet ezt észlelni, vagy ez van ? Vagy ez csak főpróba nálam majréból ? 

ZFS csatolása, adatok mentése

Fórumok

Egy ismerős keresett meg az alábbi kérdéssel, én semmit nem tudok a ZFS-ről, hátha tudtok segíteni.

Van 4 db 2 TB-os HDD amikről csak annyi információ van, hogy ZFS-van rajtuk (Ubuntu alatt az fdisk annyit ír ki, hogy Solaris/Apple ZFS), mind a négy lemez egy gépben volt.

Az operációs rendszer ismeretlen.

Fel lehet-e csatolni úgy a lemezeket, hogy az adatok menthetők legyenek róluk.

Köszönöm a segítő válaszokat.

WD red vagy Seagate Constellation, HP SAS képes workstaionbe NAS használatra

Fórumok

Sziasztok!

Mit vennétek inkább a gépbe:

https://www.interbolt.eu/spd/010546/Seagate-Constellation-ES-3-ST4000NM…

vagy

https://www.alza.hu/wd-red-4tb-bazar-d7622852.htm ,

esetleg valami teljesen mást?

Fogyasztás, zaj, ár stb szempontok alapján...

2*4TB lenne ZFS alatt raidben. A kontroller IT módban van direkben látja a vinyókat.

Üdv és köszi a véleményeket

V