Synology a une version personnalisée du pilote md et des jeux d'outils mdadm qui ajoute un indicateur «DriveError» à la structure des indicateurs rdev-> dans le noyau.
Effet net - si vous avez la malchance d'obtenir une panne de baie (premier disque), combinée à une erreur sur un deuxième disque - la baie se met dans l'état de ne pas vous laisser réparer / reconstruire la baie même si les lectures du disque fonctionnent bien.
À ce stade, je ne suis pas vraiment préoccupé par cette question du point de vue de CE tableau, car j'ai déjà retiré du contenu et j'ai l'intention de reconstruire, mais plus parce que je veux avoir un chemin de résolution pour cela à l'avenir , puisque c'est la deuxième fois que j'y suis mordu, et je sais que j'en ai vu d'autres poser des questions similaires dans les forums.
Le support de Synology a été moins qu'utile (et surtout non réactif), et ne partagera AUCUNE information sur la gestion des ensembles de raids sur la boîte.
Contenu de / proc / mdstat:
ds1512-ent> cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sdb5[1] sda5[5](S) sde5[4](E) sdd5[3] sdc5[2]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUE]
md1 : active raid1 sdb2[1] sdd2[3] sdc2[2] sde2[4] sda2[0]
2097088 blocks [5/5] [UUUUU]
md0 : active raid1 sdb1[1] sdd1[3] sdc1[2] sde1[4] sda1[0]
2490176 blocks [5/5] [UUUUU]
unused devices: <none>
État d'un mdadm --detail / dev / md2:
/dev/md2:
Version : 1.2
Creation Time : Tue Aug 7 18:51:30 2012
Raid Level : raid5
Array Size : 11702126592 (11160.02 GiB 11982.98 GB)
Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
Raid Devices : 5
Total Devices : 5
Persistence : Superblock is persistent
Update Time : Fri Jan 17 20:48:12 2014
State : clean, degraded
Active Devices : 4
Working Devices : 5
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Name : MyStorage:2
UUID : cbfdc4d8:3b78a6dd:49991e1a:2c2dc81f
Events : 427234
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 21 1 active sync /dev/sdb5
2 8 37 2 active sync /dev/sdc5
3 8 53 3 active sync /dev/sdd5
4 8 69 4 active sync /dev/sde5
5 8 5 - spare /dev/sda5
Comme vous pouvez le voir - / dev / sda5 a été rajouté au tableau. (C'est le lecteur qui a carrément échoué) - mais même si md considère le lecteur comme un disque de rechange, il ne le reconstruira pas. / dev / sde5 dans ce cas est le lecteur à problème avec l'état (E) DiskError.
J'ai essayé d'arrêter le périphérique md, d'exécuter la force de réassemblage, de supprimer / lire le sda5 du périphérique / etc. Aucun changement de comportement.
J'ai pu recréer complètement le tableau avec la commande suivante:
mdadm --stop /dev/md2
mdadm --verbose \
--create /dev/md2 --chunk=64 --level=5 \
--raid-devices=5 missing /dev/sdb5 /dev/sdc5 /dev/sdd5 /dev/sde5
ce qui a ramené le tableau à cet état:
md2 : active raid5 sde5[4] sdd5[3] sdc5[2] sdb5[1]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
J'ai ensuite rajouté / dev / sda5:
mdadm --manage /dev/md2 --add /dev/sda5
après quoi il a commencé une reconstruction:
md2 : active raid5 sda5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
[>....................] recovery = 0.1% (4569508/2925531648) finish=908.3min speed=53595K/sec
Notez la position du lecteur «manquant» correspondant à la position exacte de l'emplacement manquant.
Une fois cela terminé, je pense que je vais probablement tirer le lecteur douteux et le faire reconstruire à nouveau.
Je recherche des suggestions pour savoir s'il existe un moyen "moins effrayant" d'effectuer cette réparation - ou si quelqu'un a vécu cette expérience avec un tableau Synology et sait comment le forcer à reconstruire autre que de déconnecter le périphérique md et recréer le tableau à partir de zéro.