Clonage de partitions md pour récupération


0

J'ai un logiciel RAID5 défaillant (disques de 3x500 Go) que je tente de récupérer. Je ne veux pas essayer certaines des étapes les plus risquées sur les disques, je veux donc les cloner vers de nouvelles partitions sur un nouveau disque de 3 To. J'ai créé 3 partitions de 500 Go avec gparted, puis utilisé:

dd if=/dev/sdc1 of=/dev/sdb1
dd if=/dev/sdd1 of=/dev/sdb2
dd if=/dev/sde1 of=/dev/sdb3

cloner chaque partition md en eux. Mais mdadm ne peut pas voir un superbloc sur les nouvelles partitions clonées. Comment dois-je les cloner pour pouvoir les utiliser dans mdadm afin de récupérer mes données?

Si j'essaie d'activer le tableau, je reçois actuellement les informations suivantes dans / proc / mdstat:

Personalities :
md0 : inactive sdc1[0](S) sde1[2](S) sdd1[1](S)
      1465151808 blocks

unused devices: <none>

Plus d'infos, à partir de fdisk (comme je les ai créées avec gparted, j'ai fait en sorte que les partitions cibles soient légèrement plus grandes pour être sûres):

Disk /dev/sdc1: 500.1 GB, 500105217024 bytes
Disk /dev/sdd1: 500.1 GB, 500105217024 bytes
Disk /dev/sde1: 500.1 GB, 500105217024 bytes
Disk /dev/sdb1: 500.2 GB, 500170752000 bytes
Disk /dev/sdb2: 500.2 GB, 500170752000 bytes
Disk /dev/sdb3: 500.2 GB, 500170752000 bytes

Et enfin, mdadm --examine pour chaque partition:

$ sudo mdadm --examine /dev/sdb{1,2,3}
mdadm: No md superblock detected on /dev/sdb1.
mdadm: No md superblock detected on /dev/sdb2.
mdadm: No md superblock detected on /dev/sdb3.
$ sudo mdadm --examine /dev/sd{c,d,e}1
/dev/sdc1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : f8d0c619:9f54ad08:bd0b98c0:101144a1
  Creation Time : Sun Jul 18 01:56:33 2010
     Raid Level : raid5
  Used Dev Size : 488383936 (465.76 GiB 500.11 GB)
     Array Size : 976767872 (931.52 GiB 1000.21 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 0

    Update Time : Sat Sep 27 13:59:35 2014
          State : clean
 Active Devices : 1
Working Devices : 1
 Failed Devices : 2
  Spare Devices : 0
       Checksum : cbf4174b - correct
         Events : 5983

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     0       8       17        0      active sync   /dev/sdb1

   0     0       8       17        0      active sync   /dev/sdb1
   1     1       0        0        1      faulty removed
   2     2       0        0        2      faulty removed
/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : f8d0c619:9f54ad08:bd0b98c0:101144a1
  Creation Time : Sun Jul 18 01:56:33 2010
     Raid Level : raid5
  Used Dev Size : 488383936 (465.76 GiB 500.11 GB)
     Array Size : 976767872 (931.52 GiB 1000.21 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 0

    Update Time : Sat Sep 27 08:00:42 2014
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0
       Checksum : cbf3c2d6 - correct
         Events : 5940

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1       8       33        1      active sync   /dev/sdc1

   0     0       8       17        0      active sync   /dev/sdb1
   1     1       8       33        1      active sync   /dev/sdc1
   2     2       8       49        2      active sync   /dev/sdd1
/dev/sde1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : f8d0c619:9f54ad08:bd0b98c0:101144a1
  Creation Time : Sun Jul 18 01:56:33 2010
     Raid Level : raid5
  Used Dev Size : 488383936 (465.76 GiB 500.11 GB)
     Array Size : 976767872 (931.52 GiB 1000.21 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 0

    Update Time : Sat Sep 27 08:00:42 2014
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0
       Checksum : cbf3c2e8 - correct
         Events : 5940

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     2       8       49        2      active sync   /dev/sdd1

   0     0       8       17        0      active sync   /dev/sdb1
   1     1       8       33        1      active sync   /dev/sdc1
   2     2       8       49        2      active sync   /dev/sdd1

Veuillez afficher le contenu de / dev / mdstat
wurtel le

Je l'ai ajouté, mais je ne vois pas en quoi cette information m'amène aux bonnes options de dd pour le clonage des partitions de manière utilisable ...
Jorenko

Êtes-vous sûr que les nouvelles partitions sont aussi grandes que les anciennes? Si dd n'a pas émis d'erreur, alors vous êtes probablement en sécurité. Je ne pense pas que l'utilisation de dd différemment aidera. Je pense plutôt que mdadm devra être convaincu de rechercher des superblocs. Pouvez-vous ajouter la sortie de mdadm --examine sur chaque partition?
Nick Russo

Réponses:


1

Ah, vous utilisez des métadonnées de 0,90. Celles-ci sont stockées à un décalage donné à partir de la fin du périphérique. Par conséquent, si vous avez copié des données sur un périphérique plus grand, mdadm ne peut pas trouver les métadonnées (car ce n'est pas à la fin où il est prévu).

Je vous recommande de redimensionner les nouvelles partitions pour qu'elles aient exactement la même taille que les originales et que les métadonnées soient trouvées (inutile de recopier les données, tant que vous ne déplacez pas le début de la partition).

Remarque supplémentaire: ajouter une option bs = 1024k à dd accélère considérablement les choses.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.