Comment réinitialiser un lecteur RAID 5 défaillant à l'aide d'un terminal sur Ubuntu Server


0

J'ai actuellement mis au point un nouveau système et une partie de cela a été la création d'un logiciel RAID 5 utilisant «mdadm» dans Ubuntu Server.

J'ai réussi à créer le tableau en utilisant:

sudo mdadm --create --verbose /dev/md0 --level=5 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1

Je l'ai laissé faire sa tâche du jour au lendemain, puis j'ai utilisé la commande suivante pour vérifier:

watch cat /proc/mdstat

Pour ce qui suit a été retourné:

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdd1[4](S) sdc1[2] sdb1[1] sda1[0](F)
      5860535808 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/2] [_UU_]

unused devices: <none>

Il semble que l’un ait échoué (et je ne suis pas trop averti du fait qu’un autre est une pièce de rechange).

Donc, juste pour être sûr que quelque chose ne va pas, je voulais essayer de réengager le disque en panne. Quelqu'un peut-il expliquer comment je peux faire cela et ce que je devrais faire avec la réserve (le cas échéant)?

Et aussi comment savoir quand la synchronisation est terminée?

Le tutoriel que j'avais l'habitude d'obtenir jusqu'ici se trouve ici:

http://sonniesedge.co.uk/2009/06/13/software-raid-5-on-ubuntu-904/

Merci beaucoup!

p.s. Voici quelques informations supplémentaires qui peuvent aider:

sudo mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Mon Jun 18 21:14:21 2012
     Raid Level : raid5
     Array Size : 5860535808 (5589.04 GiB 6001.19 GB)
  Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Mon Jun 18 21:50:26 2012
          State : clean, FAILED 
 Active Devices : 2
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

           Name : myraidbox:0  (local to host myraidbox)
           UUID : a269ee94:a161600c:fb1665e7:bd2f27b3
         Events : 13

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       17        1      active sync   /dev/sdb1
       2       8       33        2      active sync   /dev/sdc1
       3       0        0        3      removed

       0       8        1        -      faulty spare   /dev/sda1
       4       8       49        -      spare   /dev/sdd1

Réponses:


0

Pour une raison quelconque, mdadm a décidé que sda1 était défectueux et que sdd1 devait être supprimé. Vérifier /var/log/syslog pour les messages d'erreurs mdadm ou ATA / SCSI afin de trouver la raison Il peut y avoir quelque chose qui ne va pas avec vos lecteurs ou contrôleurs.

Pour récupérer le tableau, vous devez rajouter les lecteurs en panne. Espérons que mdadm reconnaîtra les disques comme faisant auparavant partie du groupe et contenant des données valides. Je voudrais d'abord essayer ce qui suit avec sda1, puis sdd1.

mdadm /dev/md0 --re-add /dev/sda1

S'il se plaint que sda1 fait déjà partie du tableau, supprimez-le d'abord, puis rajoutez-le. Vérifiez la sortie de mdadm --detail avant de continuer avec le prochain lecteur.


Merci pour votre aide rapide! De la commande que vous avez mentionnée, je récupère: impossible d'ouvrir / dev / sda1: périphérique ou ressource occupé ET impossible d'ouvrir / dev / sdd1: périphérique ou ressource occupé ... Y at-il quelque chose que je devrais faire avant?
Stephen

@Stephen On dirait que quelque chose d'autre utilise le périphérique ou qu'il y a un problème matériel. Recherchez dans votre journal des traces d’erreur et essayez d’utiliser lsof pour voir si quelque chose a l'appareil ouvert.
mgorven
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.