Sziasztok!
Került hozzám két diszk egy Synology NASból, tükrözve voltak.
A történet valami olyasmi, hogy szabálytalan leállás miatt eldobta a partíciókat.
Újra indítás után viszont a korábbi DSM6 helyett DSM7-t kezdett felhúzni vagy valami ilyesmi. Ez a folyamat természeten nem visszafordítható, nincs downgrade.
Nem működik, hogy egy harmadik lemezre telepítek és visszateszem mellé a lemezeket.
A lemezeket megnézve látszik, hogy sdx[1-3] partíciók vannak, sdx1 "Linux RAID", a többin semmi. a tömböket mdadm kezeli, nem a btrfs.
A RAID tömböket újra összeraktam, de a btrfs miatt kicsit meg vagyok lőve. Az md tömböket particionálatlanul használja.
ext3/4 módszerhez hasonlóan a 8GB rendszer tömbön csináltam btrfs-t, de ez adatvesztéssel járt. Én nem láttam semmit és a windowsos csoda mentős cuccok (EaseUS, Wondershare) sem láttak semmit.
mkfs.btrfs nem jó, (c)fdsik, parted nem tud btrfs partíciót beállítani vagy vakegér vagyok és nem láttam a listában.
Az eredeti lemezről újra tudom klónozni a 8G részt, a másikhoz nem nyúlnék míg nem működik, mert 5,5TB-t dd-zni nem kis idő.
Kellene a teljes fájlrendszer, mert természetesen mentés nem volt - ez volt az - és a vágyott képek, videók (kb 1TB) könyvtárstruktúrában voltak rendezve. Ráadásul (EaseUS és társai random fájlneveket generálnak és EXIF infót is eldobják. UFS kicsit jobb, de az sem az igazi.
Van valakinek ötlete, hogy hogyan lehet helyre pofozni?
- 666 megtekintés
Hozzászólások
Elsőre: tuti, hogy btrfs volt? Ill. nem lehet, hogy a btrfs alatt még volt egy LVM is az mdraid felett? A testdisk talál az összerakott RAID device-on bármit, ami szerinte fájlrendszer?
BlackY
"Gyakran hasznos ugyanis, ha számlálni tudjuk, hányszor futott le már egy végtelenciklus." (haroldking)
- A hozzászóláshoz be kell jelentkezni
az úgy van pontosan: md, fölötte lvm, fölötte btrfs
zászló, zászló, szív
- A hozzászóláshoz be kell jelentkezni
btrfs alatt ... egy LVM az mdraid felett
Ugyanazt mondjuk, csak én bonyolultabban :)
BlackY
"Gyakran hasznos ugyanis, ha számlálni tudjuk, hányszor futott le már egy végtelenciklus." (haroldking)
- A hozzászóláshoz be kell jelentkezni
Nincs felette LVM vagy köztük, vagy mi :D
szóval md - btrfs
A testdisk se mutatta nyomát, és a saját eszközömön sincs (pvs) - ugyan az a model, ugyan az a DSM6 (volt eredetileg).
md0 / ext4
md1 swap
md2 /volume1 btrfs
md3 SSD chache - a kehes eszközön ilyen nem volt
bár az utolsó kettőt már láttam fordítva is, meg össze vissza is, ha több volume volt.
Emlékeim szerint DSM6 csak ext4 alá tesz LVM-t. De QNAP esetén így van, ez tény, ha nem ext4 akkor meg ZFS-t használ, ott tudtommal nincs (még most sem) btrfs.
btrfs alá nem is kellene szerintem raw eszközként használja az md-t
btrfs 266752 60 1 5985210 31 32 11711401088
A kiindulás:
Disk /dev/sdd - 6001 GB / 5589 GiB - CHS 5723166 64 32
Partition Start End Size in sectors
1 P Linux Raid 8192 16785407 16777216 [md0]
2 P Linux Raid 16785408 20979711 4194304 [md1]
# fdisk -l /dev/sdd
Disk /dev/sdd: 5,46 TiB, 6001175126016 bytes, 11721045168 sectors
Disk model:
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 4096 bytes / 33553920 bytes
Disklabel type: gpt
Disk identifier: EECE90D6-FF21-4F17-9042-012D2D70EE2C
Device Start End Sectors Size Type
/dev/sdd1 8192 16785407 16777216 8G Linux RAID
/dev/sdd2 16785408 20979711 4194304 2G Linux RAID
unallocated
First sector:20979712
Last sector: 11721045167
Total sector: 11700065456
De futtatok egy új testdisk-t. Most már kíváncsi lettem és nem mentettem ki a teljes analízis kimenetet
- A hozzászóláshoz be kell jelentkezni
pedig szokott lenny syno-kon lvm is a raid folott. nezz egy pvscan-t az md deviceokra meg mindenre is :)
- A hozzászóláshoz be kell jelentkezni
De ez nem ext4
Viszont most már kíváncsi lettem, mindjárt keresek két diszket és kipróbálom DSM7 alatt. Ugyanitt Syno 2,5 disk -> 3,5 keret adapter STL megköszönendő - lusta voltam még megtervezni
DSM alatt nincs pvscan ;) Ne kérdezd miért...
- A hozzászóláshoz be kell jelentkezni
gyanítom, hogy akkor tesz lvm-et, ha SHR-t választasz
- A hozzászóláshoz be kell jelentkezni
na azt kerülöm, mint a rühes macskát, azzal még mindig csak szívtam...
- A hozzászóláshoz be kell jelentkezni
root@ds918:~# pvs
root@ds918:~#
- A hozzászóláshoz be kell jelentkezni
khmmm, ennél azért jobban ismersz :D
Nem egy command not found volt, hanem egy üres kimenet ;)
- A hozzászóláshoz be kell jelentkezni
Hát jó, tételezzük fel hogy nem raktál be egy semmitcsináló pvs scriptet a path elejére :)
Ezek szerint nincs lvm.
zászló, zászló, szív
- A hozzászóláshoz be kell jelentkezni
De hiányoztál már ;) ;)
- A hozzászóláshoz be kell jelentkezni
Nincs sdd3 vagy csak eltűnt az fdiak kimenet vége? Elvileg relatíve fix helyeken van az md-n belül a fejléc és utána a ténylegesen tükrözött adat, egyszer az offsetek számolgatásával és a device-ba belemutatással sikerült legalább testdisk által menthető formába visszahozni egy NAS lemezének a tartalmát... (azaz már kétszer :) ).
Otthon ha nem felejtem el, megnézem a jegyzeteim, talán elég egy jól kiszámolt offset és mount neki.
BlackY
"Gyakran hasznos ugyanis, ha számlálni tudjuk, hányszor futott le már egy végtelenciklus." (haroldking)
- A hozzászóláshoz be kell jelentkezni
Előre is köszi!
Nem, az ssd3 az Unallocated Space
közben kibányásztam, mert a user sose mond igazat... és tényleg... elindult a DSM7 install
/etc/synoinfo.conf.qIHlrR elárulta - egyrészt lásd honnan akart frissíteni, másrészt a temp név, ha végig fut akkor csak sima synoinfo.conf
pkgupdate_server="https://pkgupdate7.synology.com"
Vélhetően ez a szerencse, mert a testdisk által talált btrfs Label-ből látszik, hogy DSM6 készítette
- A hozzászóláshoz be kell jelentkezni
Ez a testdisk eredménye (Most viszont kezdhetem előlről, mert a cseszett q útban volt)
Disk /dev/sdd - 6001 GB / 5589 GiB - CHS 5723166 64 32
The harddisk (6001 GB / 5589 GiB) seems too small! (< 3543772 TB / 3223042 TiB)
Check the harddisk size: HD jumper settings, BIOS detection...
The following partitions can't be recovered:
Partition Start End Size in sectors
Linux SWAP 2 8195 63 25 8323765 25 24 17030286144
> btrfs 266752 60 1 5985210 31 32 11711401088 [2019.11.25-21:21:08 v24922]
M-$^Zp8M-7] 805058 1 6 3058576834 1 5 507639618863104 [
BeFS 2244415 9 28 3760340799 9 27 6921425696849920 [~K^W ~Q>M-A^WGs~CM-xZ!^Lj~R ylM-= M-&^X M
BeFS 2386258 39 20 3760482642 39 19 6921425696849920 [~K^W ~Q>M-A^WGs~CM-xZ!^Lj~R ylM-= M-&^X M
HFS 4759459 62 15 5873571 62 16 2281701378
btrfs blocksize=4096 Backup superblock, 5996 GB / 5584 GiB
- A hozzászóláshoz be kell jelentkezni
2019.11.25-21:21:08 v24922
Ez lehet reális a fájlrendszer készítésének időpontjára? Ha igen, akkor még mondjuk sokkal nem vagyunk előrébb, mert attól még lehet valami turpisság a dologban, de ha az első szuperblokk meg van, onnantól tudunk pontos offseteket számolni [elvileg az első szuperblokk a partíció kezdete után 64 kilobyte-al van, a másolatok meg 64 megánál és 256 gigánál].
Retek sokáig fog futni, de rá tudsz greppelni a "_BHRfS_M" string-re a teljes device-on? (vagy inkább: hexdump -C /dev/sdd | grep "_BHRfS_M")
BlackY
"Gyakran hasznos ugyanis, ha számlálni tudjuk, hányszor futott le már egy végtelenciklus." (haroldking)
- A hozzászóláshoz be kell jelentkezni
Egy diszkkel néztem, hirtelen nincs több, de DSM7 tényleg tesz LVM-t alá...
pvdisplay
--- Physical volume ---
PV Name /dev/md2
VG Name vg1
PV Size 1.81 TiB / not usable 4.06 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 474313
Free PE 198
Allocated PE 474115
PV UUID o6FrsY-oWIh-8c1p-TwPG-5qQf-xV7H-BnaFRf
lvdisplay
--- Logical volume ---
LV Path /dev/vg1/syno_vg_reserved_area
LV Name syno_vg_reserved_area
VG Name vg1
LV UUID ltDsaU-9STy-57Bj-bj3R-KKFl-wRIq-OJ4fNq
LV Write Access read/write
LV Creation host, time ,
LV Status available
# open 0
LV Size 12.00 MiB
Current LE 3
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 384
Block device 248:0
--- Logical volume ---
LV Path /dev/vg1/volume_1
LV Name volume_1
VG Name vg1
LV UUID hsTGEE-eRtf-Ovgv-qiM3-cFti-n9s3-CrDQsg
LV Write Access read/write
LV Creation host, time ,
LV Status available
# open 1
LV Size 1.81 TiB
Current LE 474112
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 384
Block device 248:1
Meglepő módon, viszont az md0-ra nem... bár, a nagyobb cuccokat btrfs subvolume rendezi, vélhetően a / 8GB a végtelenségig elég
- A hozzászóláshoz be kell jelentkezni
Pont emiatt hasznalok szimpla RAID1-et a Synology NAS-omon. Ha vmi nagyon felremegy, akkor azzal van a legnagyobb eselyem, hogy megmentsem az adatot.
- A hozzászóláshoz be kell jelentkezni
alapvetően az SHR is egy körbescriptelt md-lvm. Nincs benne semmi bonyolult.
Egyszer egy ép syno-n körül kell nézni és érteni fogod.
van egy raid1 az összes diszk első partíciójával
ahogy pakolod bele a nagyobb diszkeket a migrációkor csinál az előző diszkkel megegyező méretű partíciót majd a maradó helyre még egyet.
kb ennyit tud.
zászló, zászló, szív
- A hozzászóláshoz be kell jelentkezni
Harmadik ésfölfelé, de igen és jó csúnya tud lenni az mdstat
Az adatbiztonságát még nem néztem, majd most lehet, hogy játszom vele, ha meglesznek az adatok
Maradok a RAID5 mellett, azzal sose volt gondom
- A hozzászóláshoz be kell jelentkezni
Pont olyannal szívok :D
- A hozzászóláshoz be kell jelentkezni
Lassan csak megtanulod h érdemes Backblaze-re backupolni :)
zászló, zászló, szív
- A hozzászóláshoz be kell jelentkezni
Ez nem az én cuccom
- A hozzászóláshoz be kell jelentkezni
A magyar vagy az angol Synology forumot próbáltad már? Lehet tudnak segíteni.
- A hozzászóláshoz be kell jelentkezni