Hát asszem valami nagy gáz van/lesz:
A 3 db 750GB WD -ből álló szoft RAID5 tömböm egy sima mc-zés közben az alábbit művelte a logba:
Mar 11 21:58:26 kubuntu mc: *** info
Mar 11 21:58:26 kubuntu mc: Warning: closing connection
Mar 11 21:58:56 kubuntu kernel: [ 818.192702] xfs_force_shutdown(md3,0x8) called from line 4341 of file /build/buildd/linux-2.6.31/
fs/xfs/xfs_bmap.c. Return address = 0xffffffffa0168326
Mar 11 21:59:06 kubuntu kernel: [ 828.043782] Filesystem "md3": xfs_log_force: error 5 returned.
Mar 11 21:59:36 kubuntu kernel: [ 858.040035] Filesystem "md3": xfs_log_force: error 5 returned.
Majd...
Mar 11 22:09:19 kubuntu kernel: [ 46.408385] XFS mounting filesystem md3
Mar 11 22:09:19 kubuntu kernel: [ 46.597230] Starting XFS recovery on filesystem: md3 (logdev: internal)
Mar 11 22:09:19 kubuntu kernel: [ 46.610899] EDAC MC: Ver: 2.1.0 Jan 28 2010
Mar 11 22:09:19 kubuntu kernel: [ 46.694999] shpchp: Standard Hot Plug PCI Controller Driver version: 0.4
Mar 11 22:09:19 kubuntu kernel: [ 46.734861] Pid: 972, comm: mount Not tainted 2.6.31-19-generic #56-Ubuntu
Mar 11 22:09:19 kubuntu kernel: [ 46.734863] Call Trace:
Mar 11 22:09:19 kubuntu kernel: [ 46.734893] [] xfs_error_report+0x3e/0x40 [xfs]
Mar 11 22:09:19 kubuntu kernel: [ 46.734912] [] ? xfs_free_extent+0xb4/0xe0 [xfs]
Mar 11 22:09:19 kubuntu kernel: [ 46.734931] [] xfs_free_ag_extent+0x51d/0x670 [xfs]
Mar 11 22:09:19 kubuntu kernel: [ 46.734950] [] xfs_free_extent+0xb4/0xe0 [xfs]
Mar 11 22:09:19 kubuntu kernel: [ 46.734971] [] xlog_recover_process_efi+0x1a0/0x1e0 [xfs]
Mar 11 22:09:19 kubuntu kernel: [ 46.734992] [] xlog_recover_process_efis+0x5b/0xb0 [xfs]
Mar 11 22:09:19 kubuntu kernel: [ 46.735014] [] xlog_recover_finish+0x1f/0xd0 [xfs]
Mar 11 22:09:19 kubuntu kernel: [ 46.735035] [] xfs_log_mount_finish+0x24/0x30 [xfs]
Mar 11 22:09:19 kubuntu kernel: [ 46.735057] [] xfs_mountfs+0x424/0x680 [xfs]
Mar 11 22:09:19 kubuntu kernel: [ 46.735079] [] ? kmem_zalloc+0x2e/0x40 [xfs]
Mar 11 22:09:19 kubuntu kernel: [ 46.735099] [] xfs_fs_fill_super+0x21d/0x3b0 [xfs]
Mar 11 22:09:19 kubuntu kernel: [ 46.735106] [] get_sb_bdev+0x16f/0x1b0
Mar 11 22:09:19 kubuntu kernel: [ 46.735127] [] ? xfs_fs_fill_super+0x0/0x3b0 [xfs]
Mar 11 22:09:19 kubuntu kernel: [ 46.735153] [] xfs_fs_get_sb+0x13/0x20 [xfs]
Mar 11 22:09:19 kubuntu kernel: [ 46.735156] [] vfs_kern_mount+0x76/0x180
Mar 11 22:09:19 kubuntu kernel: [ 46.735159] [] do_kern_mount+0x4d/0x130
Mar 11 22:09:19 kubuntu kernel: [ 46.735163] [] do_new_mount+0x8f/0xc0
Mar 11 22:09:19 kubuntu kernel: [ 46.735166] [] do_mount+0x1f7/0x210
Mar 11 22:09:19 kubuntu kernel: [ 46.735169] [] sys_mount+0x8f/0xe0
Mar 11 22:09:19 kubuntu kernel: [ 46.735173] [] system_call_fastpath+0x16/0x1b
Mar 11 22:09:19 kubuntu kernel: [ 46.735188] XFS: log mount finish failed
- 1207 megtekintés
Hozzászólások
Egyenlőre a RAID5 diszkek le vannak húzva a rendszerből, csak a 2 RAID1-es vinyó megy a rendszerrel, igy nem látok hibát a logban, tehát remélhetőleg nem az alaplappal vagy a sata vezérlővel van a gond.
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
ha nem válaszolsz rá, talán még javítani is tudja
http://hup.hu/node/84197#comment-976130
- A hozzászóláshoz be kell jelentkezni
WD melyik? wdtler-t próbáltad?
WD egy rohadék cég, desktop winyokban a TLER (time limit error recovery) 20 mp, enterprise ban 2. Ha hibat talal, akkor a lassusag miatt a raid kidobja.
--
--ha magyar MAC-et akarsz--
- A hozzászóláshoz be kell jelentkezni
hdsentinel mit mond? (egyenlőre! én már megtanultam:))
- A hozzászóláshoz be kell jelentkezni
Köszönöm az építőjellegű helyesírási kiigazításokat, de amikor adatvesztés forog a levegőben, szerintem ez a legkevésbé fontos.
Visszatérve a lényegre, hdsentinel alatt mit értesz, mert ilyen nevű programot csak windows alatt ismerek, oda pedig nem biztos, hogy szerencsés a RAID kötet egyik diszkjét felrakni.
Futtattam egy memtest-et is a gépen, 4-5 óra alatt se jött elő memória hiba jelzés.
A RAID5 diszkek nélkül mostanáig, nem látok hibajelzést a logban, tehát a rendszer ami két másik diszken van tükrözve, ugyanazon kontrolleren (ICH9), jól működik.
A kérdés az, próbáljam meg átrakni a winchestereket a LSI SATA vezérlőre? Szoftver raid van beállítva, csak gondolom a diszkek sorrendje lehet fontos esetleg? És ha visszakötöm és továbbra is a fenti error üzenetek jönnek, mit érdemes tenni, vagy futtatni?
Az a furcsa, hogy amikor a fenti hiba jött és lekérdeztem az mdstat-ot, nem jelzett a 3 diszk közül egyiken se hibát, sőt magán a raidelt diszken se?!
A diszkek a következők:
2 db WD2500AAJS-00YFA0 (tükrözés, rendszer)
3 db WD7500AAKS-00RBA0 (raid5, egyéb adatok)
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
A /proc/mdstat az mit mond?
- A hozzászóláshoz be kell jelentkezni
"..és lekérdeztem az mdstat-ot, nem jelzett a 3 diszk közül egyiken se hibát.."
melyik szót nem érted?:)
- A hozzászóláshoz be kell jelentkezni
wronly, az ;]
- A hozzászóláshoz be kell jelentkezni
Ezt nem ismertem, de örülök, hogy linux alá is irt a srác egy verziót. Windows gépeken eléggé hasznosnak tűnt eddig.
HDD Device 0: /dev/sda
HDD Model ID : WDC WD2500AAJS-00YFA0
HDD Serial No: WD-WCASE0191790
HDD Revision : 12.01C02
HDD Size : 238475 MB
Interface : S-ATA II
Temperature : 39 °C
Health : 100 %
Performance : 100 %
Power on time: 622 days, 23 hours
Est. lifetime: more than 1000 days
HDD Device 1: /dev/sdb
HDD Model ID : WDC WD2500AAJS-00YFA0
HDD Serial No: WD-WCASE0237420
HDD Revision : 12.01C02
HDD Size : 238475 MB
Interface : S-ATA II
Temperature : 41 °C
Health : 100 %
Performance : 100 %
Power on time: 622 days, 23 hours
Est. lifetime: more than 1000 days
HDD Device 2: /dev/sdc
HDD Model ID : WDC WD15EARS-00Z5B1
HDD Serial No: WD-WMAVU1303580
HDD Revision : 80.00A80
HDD Size : 1430799 MB
Interface : JMicron USB/ATA
Temperature : 36 °C
Health : 92 %
Performance : 100 %
Power on time: 14 days, 15 hours
Est. lifetime: more than 1000 days
Megpróbálom visszakötni a 3 diszket, hátha kiderül melyik a hunyó.
- A hozzászóláshoz be kell jelentkezni
ez nem raid5 paranak, inkabb filerendszer korrupcionak tunik. xfs_repairt probald meg, de elotte keszits mentest a teljes md3-rol. nekem az xfs_repair mar megette egyszer a filerendszert.
- A hozzászóláshoz be kell jelentkezni
Visszakötöttem őket, hát mdstat és smart ügyileg jónak látszik.
md3 : active raid5 sdc5[0] sdd5[1] sde5[2]
1465143808 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]
md1 : active raid1 sda5[0] sdb5[1]
240235904 blocks [2/2] [UU]
md0 : active raid1 sda1[0] sdb1[1]
80192 blocks [2/2] [UU]
md2 : active raid1 sda6[0] sdb6[1]
3879552 blocks [2/2] [UU]
unused devices:
HDD Device 2: /dev/sdc
HDD Model ID : WDC WD7500AAKS-00RBA0
HDD Serial No: WD-WCAPT1057514
HDD Revision : 30.04G30
HDD Size : 715405 MB
Interface : S-ATA II
Temperature : 32 °C
Health : 100 %
Performance : 100 %
Power on time: 622 days, 5 hours
Est. lifetime: more than 1000 days
HDD Device 3: /dev/sdd
HDD Model ID : WDC WD7500AAKS-00RBA0
HDD Serial No: WD-WCAPT1057239
HDD Revision : 30.04G30
HDD Size : 715405 MB
Interface : S-ATA II
Temperature : 32 °C
Health : 100 %
Performance : 100 %
Power on time: 622 days, 5 hours
Est. lifetime: more than 1000 days
HDD Device 4: /dev/sde
HDD Model ID : WDC WD7500AAKS-00RBA0
HDD Serial No: WD-WCAPT1057151
HDD Revision : 30.04G30
HDD Size : 715405 MB
Interface : S-ATA II
Temperature : 32 °C
Health : 100 %
Performance : 100 %
Power on time: 622 days, 4 hours
Est. lifetime: more than 1000 days
Mentés nehézkes, mivel pont az a gond hogy nem mountolja fel a fenti hibaüzenet miatt.
- A hozzászóláshoz be kell jelentkezni
"de elotte keszits mentest a teljes md3-rol"
nem fs szinten, hanem device szinten! dd?
- A hozzászóláshoz be kell jelentkezni
Azért 1.5TB diszket dd-vel lementeni :(
Megpróbáltam az alábbiakat:
mdadm -S /dev/md3
mdadm --assamble --force /dev/md3
xfs_repair -L /dev/md3
...
...
Azután felmountolta automatikusan, most másolok pár dolgot amit le tudok ellenőrizni.
/dev/md3:
Version : 00.90
Creation Time : Thu Jun 26 18:23:51 2008
Raid Level : raid5
Array Size : 1465143808 (1397.27 GiB 1500.31 GB)
Used Dev Size : 732571904 (698.64 GiB 750.15 GB)
Raid Devices : 3
Total Devices : 3
Preferred Minor : 3
Persistence : Superblock is persistent
Update Time : Fri Mar 12 17:58:34 2010
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : 35ff44d7:aa5a363a:2833ca68:12530203
Events : 0.18799
Number Major Minor RaidDevice State
0 8 37 0 active sync /dev/sdc5
1 8 53 1 active sync /dev/sdd5
2 8 69 2 active sync /dev/sde5
/dev/sda: WDC WD2500AAJS-00YFA0: 40°C
/dev/sdb: WDC WD2500AAJS-00YFA0: 41°C
/dev/sdc: WDC WD7500AAKS-00RBA0: 44°C
/dev/sdd: WDC WD7500AAKS-00RBA0: 48°C
/dev/sde: WDC WD7500AAKS-00RBA0: 46°C
md3 : active raid5 sdc5[0] sde5[2] sdd5[1]
1465143808 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]
md1 : active raid1 sda5[0] sdb5[1]
240235904 blocks [2/2] [UU]
md0 : active raid1 sda1[0] sdb1[1]
80192 blocks [2/2] [UU]
md2 : active raid1 sda6[0] sdb6[1]
3879552 blocks [2/2] [UU]
Ending clean XFS mount for filesystem: md3
Ezen üzenet óta, nem jött még semmi extra. Remélem nemis jön többé.
- A hozzászóláshoz be kell jelentkezni