Synology verfügt über eine angepasste Version des md-Treibers und der mdadm-Toolsets, die der Struktur rdev-> flags im Kernel ein 'DriveError'-Flag hinzufügen.
Nettoeffekt - Wenn Sie das Pech haben, einen Array-Fehler (erstes Laufwerk) in Verbindung mit einem Fehler auf einem zweiten Laufwerk zu bekommen, kann das Array das Array nicht reparieren / rekonstruieren, obwohl Lesevorgänge vom Laufwerk funktionieren fein.
An diesem Punkt bin ich aus Sicht DIESES Arrays nicht wirklich besorgt über diese Frage, da ich bereits Inhalte abgerufen habe und beabsichtige, sie zu rekonstruieren, sondern eher, weil ich in Zukunft einen Lösungspfad dafür haben möchte , da es das zweite Mal ist, dass ich davon gebissen wurde, und ich weiß, dass ich andere gesehen habe, die ähnliche Fragen in Foren gestellt haben.
Die Synologieunterstützung war weniger hilfreich (und reagierte größtenteils nicht) und gibt keinerlei Informationen zum Umgang mit den Raidsets auf der Box weiter.
Inhalt von / proc / mdstat:
ds1512-ent> cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sdb5[1] sda5[5](S) sde5[4](E) sdd5[3] sdc5[2]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUE]
md1 : active raid1 sdb2[1] sdd2[3] sdc2[2] sde2[4] sda2[0]
2097088 blocks [5/5] [UUUUU]
md0 : active raid1 sdb1[1] sdd1[3] sdc1[2] sde1[4] sda1[0]
2490176 blocks [5/5] [UUUUU]
unused devices: <none>
Status von einem mdadm --detail / dev / md2:
/dev/md2:
Version : 1.2
Creation Time : Tue Aug 7 18:51:30 2012
Raid Level : raid5
Array Size : 11702126592 (11160.02 GiB 11982.98 GB)
Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
Raid Devices : 5
Total Devices : 5
Persistence : Superblock is persistent
Update Time : Fri Jan 17 20:48:12 2014
State : clean, degraded
Active Devices : 4
Working Devices : 5
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Name : MyStorage:2
UUID : cbfdc4d8:3b78a6dd:49991e1a:2c2dc81f
Events : 427234
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 21 1 active sync /dev/sdb5
2 8 37 2 active sync /dev/sdc5
3 8 53 3 active sync /dev/sdd5
4 8 69 4 active sync /dev/sde5
5 8 5 - spare /dev/sda5
Wie Sie sehen können, wurde / dev / sda5 dem Array erneut hinzugefügt. (Es war das Laufwerk, das völlig ausgefallen ist) - aber obwohl md das Laufwerk als Ersatzlaufwerk ansieht, wird es nicht neu erstellt. / dev / sde5 ist in diesem Fall das Problemlaufwerk mit dem Status (E) DiskError.
Ich habe versucht, das md-Gerät anzuhalten, die Kraft wieder zusammenzusetzen, sda5 vom Gerät zu entfernen / zu lesen / etc. Keine Verhaltensänderung.
Ich konnte das Array mit dem folgenden Befehl vollständig neu erstellen:
mdadm --stop /dev/md2
mdadm --verbose \
--create /dev/md2 --chunk=64 --level=5 \
--raid-devices=5 missing /dev/sdb5 /dev/sdc5 /dev/sdd5 /dev/sde5
das brachte das Array zurück in diesen Zustand:
md2 : active raid5 sde5[4] sdd5[3] sdc5[2] sdb5[1]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
Ich habe dann / dev / sda5 erneut hinzugefügt:
mdadm --manage /dev/md2 --add /dev/sda5
Danach begann ein Umbau:
md2 : active raid5 sda5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
[>....................] recovery = 0.1% (4569508/2925531648) finish=908.3min speed=53595K/sec
Beachten Sie, dass die Position des "fehlenden" Laufwerks genau mit der Position des fehlenden Steckplatzes übereinstimmt.
Sobald dies abgeschlossen ist, werde ich wahrscheinlich das fragliche Laufwerk ziehen und es erneut erstellen lassen.
Ich suche nach Vorschlägen, ob es einen "weniger beängstigenden" Weg gibt, diese Reparatur durchzuführen - oder ob jemand diese Erfahrung mit einem Synology-Array gemacht hat und weiß, wie man es zwingt, es neu zu erstellen, außer das md-Gerät offline zu schalten und Neuerstellung des Arrays von Grund auf neu.