14.04 release upgrade 16.04 es mdadm problema

Fórumok

A kovetkezo problemaba futottam bele.

Ugye egy par honapja irogatta a szerver hogy 14.04 EOL, igy raszantam magam egy do-release-upgrade -re.

Le is futott, majd az uj kernel betoltese miatt rebootoltam a szervert.

Persze hogy nem allt fel:
van egy sima 2 diszkes raid1 -es tomb (sda + sdd), es azt mondta a boot soran hogy nem tudja osszerakni, kezzel essek neki.

furcsa is volt hogy /dev/md126 meg 127 -es bejegyzes volt... erre lestoppoltam a /dev/md12[67] -et es kezzel
osszeraktam ... szerencsere a tombon meg is talalta az ext4 -et es be is mountolta.
Gondoltam hogy csak updatelem az mdadm.conf -ot meg lefuttatom az 'update-initramfs' -et es rendben leszek.

Rebootoltam a gepet es ujra /dev/md126 van, sehol md0.
Gugliztam, ott irtak hogy szedjem ki az 'mdadm --detail --scan' altal generalt konfigbol a metadata -t meg a name -t, de ez sem segitett:

jelenleg kezzel osszeraktam, most syncel, es mukodik minden, de a kov. rebootnal megint kezzel kell megcsinalni.

Mi lehet a baj?

Jelenleg:

mdadm --detail --scan
ARRAY /dev/md/0 metadata=1.2 name=server:0 UUID=0bbe11e7:257be0b6:600345e8:3349456f

mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sat Oct 8 12:05:50 2016
Raid Level : raid1
Array Size : 976430400 (931.20 GiB 999.86 GB)
Used Dev Size : 976430400 (931.20 GiB 999.86 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Sat Oct 8 14:04:29 2016
State : active, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Resync Status : 88% complete

Name : server:0 (local to host server)
UUID : 0bbe11e7:257be0b6:600345e8:3349456f
Events : 1398

Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 49 1 active sync /dev/sdd1

Hozzászólások

dmesg:

root@server:~# dmesg |grep -e md: -e md1
[ 2.749812] md: bind
[ 2.759647] md: bind
[ 2.762207] md: raid1 personality registered for level 1
[ 2.762541] md/raid1:md127: not clean -- starting background reconstruction
[ 2.762629] md/raid1:md127: active with 2 out of 2 mirrors
[ 2.762839] created bitmap (8 pages) for device md127
[ 2.763551] md127: bitmap initialized from disk: read 1 pages, set 14100 of 14903 bits
[ 2.797925] md127: detected capacity change from 0 to 1000070643712
[ 2.933865] md: linear personality registered for level -1
[ 2.936195] md: multipath personality registered for level -4
[ 2.938862] md: raid0 personality registered for level 0
[ 3.397111] md: raid6 personality registered for level 6
[ 3.397193] md: raid5 personality registered for level 5
[ 3.397273] md: raid4 personality registered for level 4
[ 3.402083] md: raid10 personality registered for level 10
[ 5.439883] md127: detected capacity change from 1000070643712 to 0
[ 5.439983] md: md127 stopped.
[ 5.440065] md: unbind
[ 5.454218] md: export_rdev(sda)
[ 5.454332] md: unbind
[ 5.466208] md: export_rdev(sdd)
[ 20.654300] md: bind
[ 20.656413] md: bind
[ 20.697514] md: resync of RAID array md0
[ 20.697515] md: minimum _guaranteed_ speed: 50000 KB/sec/disk.
[ 20.697517] md: using maximum available idle IO bandwidth (but not more than 2000000 KB/sec) for resync.
[ 20.697520] md: using 128k window, over a total of 976631488k.
[ 86.188773] md: md0: resync interrupted.
[ 86.192408] md: checkpointing resync of md0.
[ 86.392951] md: md0 still in use.
[ 86.393106] md: resync of RAID array md0
[ 86.393109] md: minimum _guaranteed_ speed: 50000 KB/sec/disk.
[ 86.393110] md: using maximum available idle IO bandwidth (but not more than 2000000 KB/sec) for resync.
[ 86.393112] md: using 128k window, over a total of 976631488k.
[ 86.993406] md: md0: resync interrupted.
[ 87.001097] md: checkpointing resync of md0.
[ 87.159958] md: md0 stopped.
[ 87.159967] md: unbind
[ 87.170724] md: export_rdev(sdd)
[ 87.170757] md: unbind
[ 87.186644] md: export_rdev(sda)
[ 95.152942] md: bind
[ 96.907241] md: bind
[ 96.948300] md: resync of RAID array md0
[ 96.948310] md: minimum _guaranteed_ speed: 50000 KB/sec/disk.
[ 96.948315] md: using maximum available idle IO bandwidth (but not more than 2000000 KB/sec) for resync.
[ 96.948321] md: using 128k window, over a total of 976430400k.

A /etc/mdadm.conf -ban vagy /etc/mdadm.conf -ban nézd meg milyen konfig van, ha az stimmel, akkor a 88%-os resync status körül lesz a kutya elásva. Miután resyncelt mentsd el tutira a konfigot az mdadm.conf -ba, figyelve hogy a /dev/md0 vagy /dev/md/0 az ami érdemben használt.

A /dev/md126 vagy 127 akkor szokott jönni, ha talál két féllábas raidet.

az '/etc/mdadm/mdadm.conf' -ban most ez van:

...
ARRAY /dev/md/0 metadata=1.2 UUID=0bbe11e7:257be0b6:600345e8:3349456f name=server:0

mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sat Oct 8 12:05:50 2016
Raid Level : raid1
Array Size : 976430400 (931.20 GiB 999.86 GB)
Used Dev Size : 976430400 (931.20 GiB 999.86 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Sat Oct 8 20:40:59 2016
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Name : server:0 (local to host server)
UUID : 0bbe11e7:257be0b6:600345e8:3349456f
Events : 1687

Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 49 1 active sync /dev/sdd1

azt gondolom hogy az UUID stimmel.

cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdd1[1] sda1[0]
976430400 blocks super 1.2 [2/2] [UU]
bitmap: 1/8 pages [4KB], 65536KB chunk

unused devices:

osszesyncelt.

amugy a /dev/md/0 es symlink a ../md0 -ra.

most nem fogom azonnal kiprobalni (mert ha nem megy akkor megint konzolt kene kernem es este van mar)

Wow, mdadm, ezt még használja valaki? Tök ari

Kb 2001 óta deprecated.

ha az fstab-ban UUID-re hivatkozol, lenyegtelen, hogy pontosan milyen fajlneven ismeri fel a kernel

blkid /dev/md/valami megadja, vagy ahogy irtad az mdadm --detail

esetleg a boot parametereknel is frissitsd a root= reszt root=UUID=ideahosszukodot-ra