RAID 1 mdadm simple n'activant pas de rechange


24

J'avais créé deux partitions de disque dur de 2 To ( /dev/sdb1et /dev/sdc1) dans une matrice RAID 1 appelée à l' /dev/md0aide mdadmd'Ubuntu 12.04 LTS Precise Pangolin.

La commande sudo mdadm --detail /dev/md0utilisée pour indiquer les deux disques comme synchronisation active .

Ensuite, pour les tests, j'ai échoué, je l'ai /dev/sdb1supprimé, puis ajouté à nouveau avec la commandesudo mdadm /dev/md0 --add /dev/sdb1

watch cat /proc/mdstat a montré une barre de progression de la reconstruction de la baie, mais je ne passerais pas des heures à la regarder, j'ai donc supposé que le logiciel savait ce qu'il faisait.

Une fois que la barre de progression n'était plus affichée, cat /proc/mdstataffiche:

md0 : active raid1 sdb1[2](S) sdc1[1]
      1953511288 blocks super 1.2 [2/1] [U_]

Et sudo mdadm --detail /dev/md0montre:

/dev/md0:
        Version : 1.2
  Creation Time : Sun May 27 11:26:05 2012
     Raid Level : raid1
     Array Size : 1953511288 (1863.01 GiB 2000.40 GB)
  Used Dev Size : 1953511288 (1863.01 GiB 2000.40 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Mon May 28 11:16:49 2012
          State : clean, degraded 
 Active Devices : 1
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 1

           Name : Deltique:0  (local to host Deltique)
           UUID : 49733c26:dd5f67b5:13741fb7:c568bd04
         Events : 32365

    Number   Major   Minor   RaidDevice State
       1       8       33        0      active sync   /dev/sdc1
       1       0        0        1      removed

       2       8       17        -      spare   /dev/sdb1

On m'a dit que mdadm remplace automatiquement les disques supprimés par des pièces de rechange, mais qu'il /dev/sdb1n'est pas déplacé dans la position attendue, RaidDevice 1.


MISE À JOUR (30 mai 2012): Un badblockstest destructif en lecture-écriture de l'ensemble /dev/sdbn'a produit aucune erreur comme prévu; les deux disques durs sont nouveaux.

Depuis la dernière modification, j'ai assemblé le tableau avec cette commande:

sudo mdadm --assemble --force --no-degraded /dev/md0 /dev/sdb1 /dev/sdc1

Le résultat était:

mdadm: /dev/md0 has been started with 1 drive (out of 2) and 1 rebuilding.

La reconstruction semble se dérouler normalement:

md0 : active raid1 sdc1[1] sdb1[2]
      1953511288 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.6% (13261504/1953511288) finish=2299.7min speed=14060K/sec

unused devices: <none>

J'attends maintenant cette reconstruction, mais je m'attends /dev/sdb1à devenir une pièce de rechange comme les cinq ou six fois que j'ai essayé de reconstruire auparavant.


MISE À JOUR (31 mai 2012): Oui, c'est toujours une pièce de rechange. Pouah!


MISE À JOUR (01 juin 2012): J'essaie la commande suggérée par Adrian Kelly :

sudo mdadm --assemble --update=resync /dev/md0 /dev/sdb1 /dev/sdc1

En attendant la reconstruction maintenant ...


MISE À JOUR (02 juin 2012): Non, toujours une pièce de rechange ...


Mise à jour (04 Juin 2012): PB a une inquiétude que je négligé: peut - être /dev/sdc1se heurte à des erreurs d' E / S . Je n'avais pas pris la peine de vérifier /dev/sdc1car cela semblait fonctionner très bien et c'était tout neuf, mais les erreurs d'E / S vers la fin du lecteur sont une possibilité rationnelle.

J'ai acheté ces disques durs en vente, il ne serait donc pas surprenant que l'un d'entre eux soit déjà en panne. De plus, aucun d'eux ne prend en charge SMART , donc pas étonnant qu'ils soient si bon marché ...

Voici la procédure de récupération de données que je viens de créer et que je suis:

  1. sudo mdadm /dev/md0 --fail /dev/sdb1afin que je puisse sortir /dev/sdb1.
  2. sudo mdadm /dev/md0 --remove /dev/sdb1à supprimer /dev/sdb1du tableau.
  3. /dev/sdc1 est monté à /media/DtkBk
  4. Formater /dev/sdb1en ext4.
  5. Monter /dev/sdb1sur /media/DtkBkTemp.
  6. cd /media de travailler dans ce domaine.
  7. sudo chown deltik DtkBkTemppour me donner des deltikdroits (nom d'utilisateur ) sur la partition.
  8. Faites une copie de tous les fichiers et répertoires: sudo rsync -avzHXShP DtkBk/* DtkBkTemp

MISE À JOUR (06 juin 2012): J'ai fait un badblockstest destructif en mode écriture de /dev/sdc, en suivant les procédures suivantes:

  1. sudo umount /media/DtkBk pour permettre le démontage de la baie.
  2. sudo mdadm --stop /dev/md0 pour arrêter le tableau.
  3. sudo badblocks -w -p 1 /dev/sdc -s -vpour effacer le disque dur suspect et, au cours du processus, recherchez les erreurs d'E / S. S'il y a des erreurs d'E / S, ce n'est pas un bon signe. J'espère que je peux obtenir un remboursement ...

J'ai maintenant confirmé qu'il n'y a aucun problème d'entrée / sortie sur les deux disques durs .

De toutes ces investigations, mes deux questions originales sont toujours d'actualité.


Mes questions sont:

  1. Pourquoi le disque de rechange ne devient-il pas une synchronisation active?
  2. Comment activer le disque de rechange?

Réponses:


14

Faire cela enfonce simplement le disque dans le module RAID sans en faire quoi que ce soit, c'est-à-dire qu'il est membre du module mais non actif. Par défaut, cela le transforme en pièce de rechange:

sudo mdadm /dev/md0 --add /dev/sdb1

Si vous disposez d'un disque de rechange, vous pouvez le faire croître en forçant le nombre de disques actifs à augmenter. Avec 3 lecteurs et 2 devraient être actifs, vous devez augmenter le nombre d'actifs à 3.

mdadm --grow /dev/md0 --raid-devices=3

Le pilote RAID RAID remarquera que vous êtes "court" un lecteur, puis recherchez un disque de rechange. En trouvant le disque de rechange, il l'intégrera dans le module RAID en tant que disque actif. Ouvrez un terminal de rechange et laissez cette ligne de commande plutôt grossière s'exécuter, pour garder un œil sur la progression de la resynchronisation. Assurez-vous de le taper sur une seule ligne ou utilisez le caractère de saut de ligne (\), et une fois la reconstruction terminée, tapez simplement Ctrl-C dans le terminal.

while true; do sleep 60; clear; sudo mdadm --detail /dev/md0; echo; cat /proc/mdstat; done

Votre baie aura désormais deux disques actifs synchronisés, mais comme il n'y a pas 3 disques, elle ne sera pas 100% propre. Retirez le disque défectueux, puis redimensionnez la baie. Notez que le --growdrapeau est un peu un abus de langage - il peut signifier soit augmenter ou diminuer:

sudo mdadm /dev/md0 --fail /dev/{failed drive}
sudo mdadm /dev/md0 --remove /dev/{failed drive}
sudo mdadm --grow /dev/md0 --raid-devices=2

En ce qui concerne les erreurs, un problème de liaison avec le lecteur (c'est-à-dire le port PATA / SATA, le câble ou le connecteur du lecteur) n'est pas suffisant pour déclencher le basculement d'un disque de secours, car le noyau passera généralement à l'utilisation de l'autre "bon" lecteur pendant qu'il réinitialise le lien vers le «mauvais» lecteur. Je le sais parce que j'exécute un module RAID à 3 disques, 2 chauds, 1 de rechange et l'un des disques a récemment décidé de ralentir un peu dans les journaux. Lorsque j'ai testé tous les disques de la baie, tous les 3 ont réussi la version "longue" du test SMART, donc ce n'est pas un problème avec les plateaux, les composants mécaniques ou le contrôleur embarqué - ce qui laisse un câble de liaison feuilleté ou un mauvais port SATA. C'est peut-être ce que vous voyez. Essayez de basculer le lecteur sur un autre port de la carte mère ou d'utiliser un autre câble et voyez s'il s'améliore.


Un suivi: j'ai terminé mon extension du miroir à 3 disques, j'ai échoué et retiré le disque feuilleté de la matrice md, remplacé à chaud le câble par un nouveau (la carte mère le prend en charge) et j'ai rajouté le disque. Lors de la réajout, il a immédiatement commencé une resynchronisation du lecteur. Jusqu'à présent, aucune erreur n'est apparue dans le journal malgré le fait que le lecteur soit largement utilisé. Donc, oui, les câbles d'entraînement peuvent devenir floconneux.


Câble de liaison floconneux? J'achète cette explication, mais je ne peux plus la tester parce que j'ai redéfini les deux disques il y a des mois. J'accepte cette réponse comme la meilleure réponse à mon problème particulier, mais une autre excellente réponse est celle-ci .
Deltik

En tant que mise à jour, cette réponse reste la plus utile à la plupart des gens, c'est pourquoi je l'ai acceptée, mais ce qui s'est réellement passé, c'est que l'un des disques de ma matrice RAID 1 était mauvais, très probablement /dev/sdc1à l'époque parce qu'il /dev/sdc1était lu pendant /dev/sdb1était en cours d'écriture et les secteurs défectueux /dev/sdb1auraient été remappés de manière transparente lors de l'écriture.
Deltik

1
Pour garder un œil sur le processus de resynchronisation, faites watch -n 60 cat /proc/mdstat60est le nombre de secondes entre les rafraîchissements.
Erk

8

J'ai eu exactement le même problème, et dans mon cas, j'ai découvert que le disque de raid actif souffrait d'erreurs de lecture lors de la synchronisation. Par conséquent, le nouveau disque a été synchronisé avec succès et a donc été conservé comme étant disponible.

Vous voudrez peut-être vérifier vos / var / log / messages et autres journaux système pour les erreurs. De plus, il peut également être judicieux de vérifier l'état SMART de votre disque:
1) Exécutez le test court:

"smartctl -t short / dev / sda"

2) Affichez les résultats du test:

"smartctl -l selftest / dev / sda"

Dans mon cas, cela a renvoyé quelque chose comme ceci:

=== DÉBUT DE LA LECTURE DE LA SECTION SMART DATA ===
SMART Auto-test structure de journal numéro de révision 1
Num Test_Description Statut Restant LifeTime (heures) LBA_of_first_error
1 Hors ligne étendu Terminé: échec de lecture 90% 7564 27134728
2 Hors ligne court Terminé: échec de lecture 90% 7467 1408449701

J'ai dû démarrer une distribution en direct et copier manuellement les données du disque défectueux sur le nouveau (actuellement "de rechange").


Aha! Je ne pensais pas soupçonner le lecteur actif d'erreurs d'E / S. Pour une raison quelconque, SMART n'est pas pris en charge sur ces disques durs. Ceci et d'éventuelles erreurs d'E / S sur deux nouveaux disques durs? Je pense que j'ai fait un mauvais achat ... Quoi qu'il en soit, je prends des procédures de récupération de données en ce moment sur le disque dur que je sais être bon. Je mettrai à jour bientôt.
Deltik

+50 rep à votre PB . Personne n'a pu répondre correctement à mes questions, mais j'ai pensé qu'au lieu de gaspiller 50 points de réputation pour rien, je vous les offrirais en cadeau de bienvenue. Bienvenue sur Stack Exchange!
Deltik

3

J'ai eu exactement le même problème et j'ai toujours pensé que mon deuxième disque, que je voulais rajouter à la matrice, avait des erreurs. Mais c'était mon disque d'origine qui avait des erreurs de lecture.

Vous pouvez le vérifier avec smartctl -t short /dev/sdXet voir les résultats quelques minutes plus tard avec smartctl -l selftest /dev/sdX. Pour moi, cela ressemblait à ceci:

=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed: read failure       20%     25151         734566647

J'ai essayé de les réparer avec ce manuel . C'était amusant :-). Je sais que vous avez vérifié les deux disques pour les erreurs, mais je pense que votre problème est que le disque qui est toujours dans la matrice md a des erreurs de lecture, donc l'ajout d'un deuxième disque échoue.

Mise à jour

Vous devez en plus exécuter un smartctl -a /dev/sdX Si vous voyez Current_Pending_Sector> 0 quelque chose ne va pas

197 Current_Pending_Sector 0x0012 098 098 000 Old_age Always - 69

Pour moi, c'était définitivement le problème que j'ai supprimé un disque du raid juste pour tester et resynchroniser ne pouvait pas être fait en raison d'échecs de lecture. La synchronisation a été interrompue à mi-chemin. Quand j'ai vérifié mon disque qui était toujours dans le tableau RAID, smartctl a signalé des problèmes.

J'ai pu les corriger avec le manuel ci-dessus et j'ai vu le nombre de secteurs en attente réduit. Mais il y en avait trop et c'est une procédure longue et ennuyeuse, j'ai donc utilisé ma sauvegarde et restauré les données sur un autre serveur.

Comme vous n'avez pas eu l'occasion d'utiliser SMART, je suppose que votre auto-test n'a pas révélé ces secteurs cassés.

Pour moi, c'est une leçon apprise: vérifiez vos disques avant d'en retirer un de votre baie.


Au moment où vous avez répondu, la matrice RAID 1 avait cessé d'exister et les deux disques ne présentaient aucune erreur d'E / S. Pouvez-vous vérifier que votre réponse est applicable?
Deltik

Enfin accepté. Cette réponse est la plus susceptible d'aider les futurs visiteurs. Moi, j'ai abandonné le RAID en général. Ce n'est pas comme si je possédais un centre de données.
Deltik

Ce n'est plus la réponse acceptée, mais c'est toujours une bonne réponse et peut aider quelqu'un d'autre. Cette réponse est la plus applicable à moi, mais cette réponse est probablement la plus applicable à d'autres personnes. Aussi, je reprends ce que j'ai dit sur RAID dans ce commentaire .
Deltik

3

J'ai rencontré un problème similaire et l'ai résolu en augmentant la quantité de disques RAID de 1 à 2.

mdadm --grow --raid-devices=2 /dev/md1

3

MISE À JOUR (24 mai 2015): Après trois ans, j'ai enquêté sur la véritable cause de la dégradation de la matrice RAID 1.

tl; dr: L'un des disques était défectueux, et je ne l'ai pas remarqué car je n'avais effectué qu'un test de surface complet sur le bon disque.

Il y a trois ans, je ne pensais pas à vérifier les journaux sur les problèmes d'E / S. Si j'avais pensé à vérifier /var/log/syslog, j'aurais vu quelque chose comme ça quand j'ai mdadmrenoncé à reconstruire le tableau:

May 24 14:08:32 node51 kernel: [51887.853786] sd 8:0:0:0: [sdi] Unhandled sense code
May 24 14:08:32 node51 kernel: [51887.853794] sd 8:0:0:0: [sdi]
May 24 14:08:32 node51 kernel: [51887.853798] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
May 24 14:08:32 node51 kernel: [51887.853802] sd 8:0:0:0: [sdi]
May 24 14:08:32 node51 kernel: [51887.853805] Sense Key : Medium Error [current]
May 24 14:08:32 node51 kernel: [51887.853812] sd 8:0:0:0: [sdi]
May 24 14:08:32 node51 kernel: [51887.853815] Add. Sense: Unrecovered read error
May 24 14:08:32 node51 kernel: [51887.853819] sd 8:0:0:0: [sdi] CDB:
May 24 14:08:32 node51 kernel: [51887.853822] Read(10): 28 00 00 1b 6e 00 00 00 01 00
May 24 14:08:32 node51 kernel: [51887.853836] end_request: critical medium error, dev sdi, sector 14381056
May 24 14:08:32 node51 kernel: [51887.853849] Buffer I/O error on device sdi, logical block 1797632

Pour obtenir cette sortie dans le journal, j'ai cherché le premier LBA problématique (14381058, dans mon cas) avec cette commande:

root@node51 [~]# dd if=/dev/sdi of=/dev/zero bs=512 count=1 skip=14381058
dd: error reading ‘/dev/sdi’: Input/output error
0+0 records in
0+0 records out
0 bytes (0 B) copied, 7.49287 s, 0.0 kB/s

Pas étonnant que mdj'abandonne! Il ne peut pas reconstruire un module RAID à partir d'un mauvais disque.

Une nouvelle technologie (meilleure smartmontoolscompatibilité matérielle?) M'a permis d'obtenir des informations SMART du lecteur, y compris les cinq dernières erreurs (sur 1393 jusqu'à présent):

root@node51 [~]# smartctl -a /dev/sdi
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.13.0-43-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Hitachi Deskstar 5K3000
Device Model:     Hitachi HDS5C3020ALA632
Serial Number:    ML2220FA040K9E
LU WWN Device Id: 5 000cca 36ac1d394
Firmware Version: ML6OA800
User Capacity:    2,000,398,934,016 bytes [2.00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    5940 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 2.6, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Sun May 24 14:13:35 2015 CDT
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART STATUS RETURN: incomplete response, ATA output registers missing
SMART overall-health self-assessment test result: PASSED
Warning: This result is based on an Attribute check.

General SMART Values:
Offline data collection status:  (0x84) Offline data collection activity
                                        was suspended by an interrupting command from host.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (21438) seconds.
Offline data collection
capabilities:                    (0x5b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        No Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   1) minutes.
Extended self-test routine
recommended polling time:        ( 358) minutes.
SCT capabilities:              (0x003d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   100   100   016    Pre-fail  Always       -       0
  2 Throughput_Performance  0x0005   136   136   054    Pre-fail  Offline      -       93
  3 Spin_Up_Time            0x0007   172   172   024    Pre-fail  Always       -       277 (Average 362)
  4 Start_Stop_Count        0x0012   100   100   000    Old_age   Always       -       174
  5 Reallocated_Sector_Ct   0x0033   100   100   005    Pre-fail  Always       -       8
  7 Seek_Error_Rate         0x000b   100   100   067    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0005   146   146   020    Pre-fail  Offline      -       29
  9 Power_On_Hours          0x0012   097   097   000    Old_age   Always       -       22419
 10 Spin_Retry_Count        0x0013   100   100   060    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       161
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       900
193 Load_Cycle_Count        0x0012   100   100   000    Old_age   Always       -       900
194 Temperature_Celsius     0x0002   127   127   000    Old_age   Always       -       47 (Min/Max 19/60)
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       8
197 Current_Pending_Sector  0x0022   100   100   000    Old_age   Always       -       30
198 Offline_Uncorrectable   0x0008   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x000a   200   200   000    Old_age   Always       -       2

SMART Error Log Version: 1
ATA Error Count: 1393 (device log contains only the most recent five errors)
        CR = Command Register [HEX]
        FR = Features Register [HEX]
        SC = Sector Count Register [HEX]
        SN = Sector Number Register [HEX]
        CL = Cylinder Low Register [HEX]
        CH = Cylinder High Register [HEX]
        DH = Device/Head Register [HEX]
        DC = Device Command Register [HEX]
        ER = Error register [HEX]
        ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 1393 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:59:34.096  READ DMA EXT
  25 00 08 00 70 db 40 00   1d+03:59:30.334  READ DMA EXT
  b0 d5 01 09 4f c2 00 00   1d+03:57:59.057  SMART READ LOG
  b0 d5 01 06 4f c2 00 00   1d+03:57:58.766  SMART READ LOG
  b0 d5 01 01 4f c2 00 00   1d+03:57:58.476  SMART READ LOG

Error 1392 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:59:30.334  READ DMA EXT
  b0 d5 01 09 4f c2 00 00   1d+03:57:59.057  SMART READ LOG
  b0 d5 01 06 4f c2 00 00   1d+03:57:58.766  SMART READ LOG
  b0 d5 01 01 4f c2 00 00   1d+03:57:58.476  SMART READ LOG
  b0 d5 01 00 4f c2 00 00   1d+03:57:58.475  SMART READ LOG

Error 1391 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:56:28.228  READ DMA EXT
  25 00 08 00 70 db 40 00   1d+03:56:24.549  READ DMA EXT
  25 00 08 00 70 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 10 f0 71 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 f0 00 71 db 40 00   1d+03:56:06.710  READ DMA EXT

Error 1390 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:56:24.549  READ DMA EXT
  25 00 08 00 70 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 10 f0 71 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 f0 00 71 db 40 00   1d+03:56:06.710  READ DMA EXT
  25 00 10 f0 70 db 40 00   1d+03:56:06.687  READ DMA EXT

Error 1389 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 10 f0 71 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 f0 00 71 db 40 00   1d+03:56:06.710  READ DMA EXT
  25 00 10 f0 70 db 40 00   1d+03:56:06.687  READ DMA EXT
  25 00 f0 00 70 db 40 00   1d+03:56:03.026  READ DMA EXT

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Completed: read failure       90%     21249         14381058

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Ahh… ça le ferait.

Maintenant, j'ai résolu cette question en trois étapes faciles:

  1. Devenez administrateur système en trois ans.
  2. Vérifiez les journaux.
  3. Revenez à Super User et riez de mon approche d'il y a trois ans .

MISE À JOUR (19 juillet 2015): Pour tous ceux qui sont curieux, le lecteur a finalement manqué de secteurs pour remapper:

root@node51 [~]# smartctl -a /dev/sdg
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.13.0-43-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Hitachi Deskstar 5K3000
Device Model:     Hitachi HDS5C3020ALA632
Serial Number:    ML2220FA040K9E
LU WWN Device Id: 5 000cca 36ac1d394
Firmware Version: ML6OA800
User Capacity:    2,000,398,934,016 bytes [2.00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    5940 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 2.6, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Sun Jul 19 14:00:33 2015 CDT
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART STATUS RETURN: incomplete response, ATA output registers missing
SMART overall-health self-assessment test result: FAILED!
Drive failure expected in less than 24 hours. SAVE ALL DATA.
See vendor-specific Attribute list for failed Attributes.

General SMART Values:
Offline data collection status:  (0x85) Offline data collection activity
                                        was aborted by an interrupting command from host.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      ( 117) The previous self-test completed having
                                        the read element of the test failed.
Total time to complete Offline
data collection:                (21438) seconds.
Offline data collection
capabilities:                    (0x5b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        No Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   1) minutes.
Extended self-test routine
recommended polling time:        ( 358) minutes.
SCT capabilities:              (0x003d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   099   099   016    Pre-fail  Always       -       2
  2 Throughput_Performance  0x0005   136   136   054    Pre-fail  Offline      -       93
  3 Spin_Up_Time            0x0007   163   163   024    Pre-fail  Always       -       318 (Average 355)
  4 Start_Stop_Count        0x0012   100   100   000    Old_age   Always       -       181
  5 Reallocated_Sector_Ct   0x0033   001   001   005    Pre-fail  Always   FAILING_NOW 1978
  7 Seek_Error_Rate         0x000b   086   086   067    Pre-fail  Always       -       1245192
  8 Seek_Time_Performance   0x0005   146   146   020    Pre-fail  Offline      -       29
  9 Power_On_Hours          0x0012   097   097   000    Old_age   Always       -       23763
 10 Spin_Retry_Count        0x0013   100   100   060    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       167
192 Power-Off_Retract_Count 0x0032   092   092   000    Old_age   Always       -       10251
193 Load_Cycle_Count        0x0012   092   092   000    Old_age   Always       -       10251
194 Temperature_Celsius     0x0002   111   111   000    Old_age   Always       -       54 (Min/Max 19/63)
196 Reallocated_Event_Count 0x0032   001   001   000    Old_age   Always       -       2927
197 Current_Pending_Sector  0x0022   100   100   000    Old_age   Always       -       33
198 Offline_Uncorrectable   0x0008   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x000a   200   200   000    Old_age   Always       -       2

SMART Error Log Version: 1
ATA Error Count: 2240 (device log contains only the most recent five errors)
        CR = Command Register [HEX]
        FR = Features Register [HEX]
        SC = Sector Count Register [HEX]
        SN = Sector Number Register [HEX]
        CL = Cylinder Low Register [HEX]
        CH = Cylinder High Register [HEX]
        DH = Device/Head Register [HEX]
        DC = Device Command Register [HEX]
        ER = Error register [HEX]
        ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 2240 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 f0 18 0f 2f 00  Error: IDNF 240 sectors at LBA = 0x002f0f18 = 3084056

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 18 0f 2f 40 00      00:25:01.942  WRITE DMA EXT
  35 00 f0 28 0e 2f 40 00      00:25:01.168  WRITE DMA EXT
  35 00 f0 38 0d 2f 40 00      00:25:01.157  WRITE DMA EXT
  35 00 f0 48 0c 2f 40 00      00:25:01.147  WRITE DMA EXT
  35 00 f0 58 0b 2f 40 00      00:25:01.136  WRITE DMA EXT

Error 2239 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 5a 4e f7 2e 00  Error: IDNF 90 sectors at LBA = 0x002ef74e = 3077966

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 b8 f6 2e 40 00      00:24:57.967  WRITE DMA EXT
  35 00 f0 c8 f5 2e 40 00      00:24:57.956  WRITE DMA EXT
  35 00 f0 d8 f4 2e 40 00      00:24:57.945  WRITE DMA EXT
  35 00 f0 e8 f3 2e 40 00      00:24:57.934  WRITE DMA EXT
  35 00 f0 f8 f2 2e 40 00      00:24:57.924  WRITE DMA EXT

Error 2238 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 40 a8 c6 2e 00  Error: IDNF 64 sectors at LBA = 0x002ec6a8 = 3065512

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 f8 c5 2e 40 00      00:24:49.444  WRITE DMA EXT
  35 00 f0 08 c5 2e 40 00      00:24:49.433  WRITE DMA EXT
  35 00 f0 18 c4 2e 40 00      00:24:49.422  WRITE DMA EXT
  35 00 f0 28 c3 2e 40 00      00:24:49.412  WRITE DMA EXT
  35 00 f0 38 c2 2e 40 00      00:24:49.401  WRITE DMA EXT

Error 2237 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 ea be ba 2e 00  Error: IDNF 234 sectors at LBA = 0x002ebabe = 3062462

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 b8 ba 2e 40 00      00:24:39.263  WRITE DMA EXT
  35 00 f0 c8 b9 2e 40 00      00:24:38.885  WRITE DMA EXT
  35 00 f0 d8 b8 2e 40 00      00:24:38.874  WRITE DMA EXT
  35 00 f0 e8 b7 2e 40 00      00:24:38.862  WRITE DMA EXT
  35 00 f0 f8 b6 2e 40 00      00:24:38.852  WRITE DMA EXT

Error 2236 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 86 c2 2a 2e 00  Error: IDNF 134 sectors at LBA = 0x002e2ac2 = 3025602

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 58 2a 2e 40 00      00:24:25.605  WRITE DMA EXT
  35 00 f0 68 29 2e 40 00      00:24:25.594  WRITE DMA EXT
  35 00 f0 78 28 2e 40 00      00:24:25.583  WRITE DMA EXT
  35 00 f0 88 27 2e 40 00      00:24:25.572  WRITE DMA EXT
  35 00 f0 98 26 2e 40 00      00:24:25.561  WRITE DMA EXT

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short captive       Completed: read failure       50%     23763         869280
# 2  Extended offline    Completed without error       00%     22451         -
# 3  Short offline       Completed without error       00%     22439         -
# 4  Extended offline    Completed: read failure       90%     21249         14381058
1 of 2 failed self-tests are outdated by newer successful extended offline self-test # 2

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

1
oui, exactement ce qui vient d'arriver à mon RAID! Ceci est la vraie réponse à votre propre question! Merci de l'avoir mis à jour !!!
Preexo

1

Dans mon cas, c'était aussi un mauvais disque source. Bien qu'il semblait à l'époque comme il ne l'était pas (le / proc / mdstat a progressé au-dessus de 99,9% normalement - mais il a en fait échoué à 99,97%, ce qui concordait avec la fin de la synchronisation régulière). Vous devez donc vérifier la dmesg(1)sortie - il vous dira s'il y a des erreurs de lecture.

Vous pouvez voir les détails de mon cas dans le bogue Debian # 767243 . J'ai finalement réussi à terminer la synchronisation en écrasant de force quelques secteurs défectueux sur le disque source (qui étaient heureusement inutilisés dans mon cas, sinon il y aurait eu une perte de données)


0

Tu pourrais essayer

sudo mdadm --assemble --update=resync /dev/md0 /dev/sdb1 /dev/sdc1

pour mettre à jour les disques et les resynchroniser.


J'essaye maintenant ... Je ferai rapport lorsque la reconstruction sera censée être terminée.
Deltik

Ça n'a pas marché. /dev/sdb1n'est toujours pas devenu "actif" après avoir été reconstruit comme pièce de rechange.
Deltik

0

Je ne sais pas si cela fonctionnera puisque vous avez déjà --addédité le disque mais --re-addsemble être l'option dont vous avez besoin.

Ou peut-être avez-vous besoin de --growl'appareil sur 2 disques actifs mdadm --grow -n 2? Non testé alors soyez prudent.


sudo mdadm --grow -n 2a été l'une des premières choses que j'ai faites, c'est pourquoi sudo mdadm --detail /dev/md0montre deux emplacements. Désolé, ça ne marche pas.
Deltik

0

Je recommanderais de supprimer sdc1, de mettre à zéro le super bloc sur sdc1, puis de le rajouter.

mdadm /dev/md0 -r /dev/sdc1
mdadm --zero-superblock /dev/sdc1
mdadm /dev/md0 -a /dev/sdc1

J'ai déplacé mes données sur chaque disque dur pendant que je mettais à zéro le superbloc sur l'autre disque dur. Le problème que je rencontre, même avec une recréation complète de la matrice RAID 1.
Deltik
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.