mise à jour apt-get mdadm avertissements effrayants


8

Je viens de lancer une mise à jour apt-get sur l'un de mes serveurs dédiés pour me retrouver avec un avertissement relativement effrayant:

Processing triggers for initramfs-tools ...
update-initramfs: Generating /boot/initrd.img-2.6.26-2-686-bigmem
W: mdadm: the array /dev/md/1 with UUID c622dd79:496607cf:c230666b:5103eba0
W: mdadm: is currently active, but it is not listed in mdadm.conf. if
W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE!
W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare
W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.
W: mdadm: the array /dev/md/2 with UUID 24120323:8c54087c:c230666b:5103eba0
W: mdadm: is currently active, but it is not listed in mdadm.conf. if
W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE!
W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare
W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.
W: mdadm: the array /dev/md/6 with UUID eef74de5:9267b2a1:c230666b:5103eba0
W: mdadm: is currently active, but it is not listed in mdadm.conf. if
W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE!
W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare
W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.
W: mdadm: the array /dev/md/5 with UUID 5d45b20c:04d8138f:c230666b:5103eba0
W: mdadm: is currently active, but it is not listed in mdadm.conf. if
W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE!
W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare
W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.

Comme indiqué, j'ai inspecté la sortie de / usr / share / mdadm / mkconf et comparé à /etc/mdadm/mdadm.conf et ils sont assez différents.

Voici le contenu /etc/mdadm/mdadm.conf:

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=b93b0b87:5f7c2c46:0043fca9:4026c400
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=c0fa8842:e214fb1a:fad8a3a2:28f2aabc
ARRAY /dev/md2 level=raid1 num-devices=2 UUID=cdc2a9a9:63bbda21:f55e806c:a5371897
ARRAY /dev/md3 level=raid1 num-devices=2 UUID=eca75495:9c9ce18c:d2bac587:f1e79d80

# This file was auto-generated on Wed, 04 Nov 2009 11:32:16 +0100
# by mkconf $Id$

Et voici la sortie de / usr / share / mdadm / mkconf

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY /dev/md1 UUID=c622dd79:496607cf:c230666b:5103eba0
ARRAY /dev/md2 UUID=24120323:8c54087c:c230666b:5103eba0
ARRAY /dev/md5 UUID=5d45b20c:04d8138f:c230666b:5103eba0
ARRAY /dev/md6 UUID=eef74de5:9267b2a1:c230666b:5103eba0

# This configuration was auto-generated on Sat, 25 Feb 2012 13:10:00 +1030
# by mkconf 3.1.4-1+8efb9d1+squeeze1

Si je comprends bien, je dois remplacer les quatre lignes commençant par «ARRAY» dans le fichier /etc/mdadm/mdadm.conf par les quatre différentes lignes «ARRAY» de la sortie / usr / share / mdadm / mkconf.

Lorsque j'ai fait cela et que j'ai exécuté update-initramfs -u, il n'y a plus eu d'avertissement.

Ce que j'ai fait ci-dessus est-il correct? Je suis maintenant terrifié à l'idée de redémarrer le serveur de peur qu'il ne redémarre pas et étant un serveur dédié à distance, cela signifierait certainement des temps d'arrêt et coûterait peut-être cher pour fonctionner à nouveau.

SUIVI (réponse à la question):

la sortie du montage:

/dev/md1 on / type ext3 (rw,usrquota,grpquota)
tmpfs on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
proc on /proc type proc (rw,noexec,nosuid,nodev)
sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)
udev on /dev type tmpfs (rw,mode=0755)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)
devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=620)
/dev/md2 on /boot type ext2 (rw)
/dev/md5 on /tmp type ext3 (rw)
/dev/md6 on /home type ext3 (rw,usrquota,grpquota)

mdadm --detail / dev / md0

mdadm: md device /dev/md0 does not appear to be active.

mdadm --detail / dev / md1

/dev/md1:
    Version : 0.90
  Creation Time : Sun Aug 14 09:43:08 2011
     Raid Level : raid1
     Array Size : 31463232 (30.01 GiB 32.22 GB)
  Used Dev Size : 31463232 (30.01 GiB 32.22 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Sat Feb 25 14:03:47 2012
      State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

       UUID : c622dd79:496607cf:c230666b:5103eba0
     Events : 0.24

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1

mdadm --detail / dev / md2

/dev/md2:
    Version : 0.90
  Creation Time : Sun Aug 14 09:43:09 2011
     Raid Level : raid1
     Array Size : 104320 (101.89 MiB 106.82 MB)
  Used Dev Size : 104320 (101.89 MiB 106.82 MB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 2
    Persistence : Superblock is persistent

    Update Time : Sat Feb 25 13:20:20 2012
      State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

       UUID : 24120323:8c54087c:c230666b:5103eba0
     Events : 0.30

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       8       18        1      active sync   /dev/sdb2

mdadm --detail / dev / md3

mdadm: md device /dev/md3 does not appear to be active.

mdadm --detail / dev / md5

/dev/md5:
    Version : 0.90
  Creation Time : Sun Aug 14 09:43:09 2011
     Raid Level : raid1
     Array Size : 2104448 (2.01 GiB 2.15 GB)
  Used Dev Size : 2104448 (2.01 GiB 2.15 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 5
    Persistence : Superblock is persistent

    Update Time : Sat Feb 25 14:09:03 2012
      State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

       UUID : 5d45b20c:04d8138f:c230666b:5103eba0
     Events : 0.30

    Number   Major   Minor   RaidDevice State
       0       8        5        0      active sync   /dev/sda5
       1       8       21        1      active sync   /dev/sdb5

mdadm --detail / dev / md6

/dev/md6:
    Version : 0.90
  Creation Time : Sun Aug 14 09:43:09 2011
     Raid Level : raid1
     Array Size : 453659456 (432.64 GiB 464.55 GB)
  Used Dev Size : 453659456 (432.64 GiB 464.55 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 6
    Persistence : Superblock is persistent

    Update Time : Sat Feb 25 14:10:00 2012
      State : active
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

       UUID : eef74de5:9267b2a1:c230666b:5103eba0
     Events : 0.31

    Number   Major   Minor   RaidDevice State
       0       8        6        0      active sync   /dev/sda6
       1       8       22        1      active sync   /dev/sdb6

SUIVI 2 (réponse à la question):

Sortie depuis / etc / fstab

/dev/md1      /                    ext3 defaults,usrquota,grpquota 1 1
devpts         /dev/pts             devpts     mode=0620,gid=5       0 0
proc           /proc                proc       defaults              0 0
#usbdevfs       /proc/bus/usb        usbdevfs   noauto                0 0
/dev/cdrom     /media/cdrom         auto       ro,noauto,user,exec   0 0
/dev/dvd       /media/dvd           auto       ro,noauto,user,exec   0 0
#
#
#
/dev/md2       /boot    ext2       defaults 1 2
/dev/sda3       swap     swap       pri=42   0 0
/dev/sdb3       swap     swap       pri=42   0 0
/dev/md5       /tmp     ext3       defaults 0 0
/dev/md6       /home    ext3       defaults,usrquota,grpquota 1 2

1
Il pense qu'ils devraient être 1, 2, 5 et 6 - votre configuration existante les a comme 0, 1, 2, 3. Quelque chose ne va pas. Pouvez-vous fournir la sortie mountet les mdadm --detailcommandes de chaque périphérique MD?
Shane Madden

Merci - informations de
suivi

Réponses:


2

Il semble que les avertissements soient corrects - votre disposition actuelle diffère énormément de la vôtre mdadm.conf.

Les paramètres fournis /usr/share/mdadm/mkconfsont corrects. Juste pour vérifier - vos /etc/fstabentrées correspondent-elles à vos montures actuelles?

Étant donné que quelque chose de grand semble avoir changé sur ce système, je serais toujours un peu préoccupé par le redémarrage. Sauvegardez d'abord!


Oui, / etc / fstab semble être d'accord avec les nouveaux paramètres de montage. J'ai ajouté la sortie de / etc / fstab ci-dessus (dans FOLLOW UP 2 dans la question d'origine). Étrange, je ne sais pas comment la configuration du système aurait pu changer ...? Oui, sauvegardera toutes les données importantes avant de tenter un redémarrage. Merci.
user568829

Ouais, on dirait que tout a été mis à jour sauf le mdadm.conf. Étrange! Peut-être vérifiez l'horodatage de modification /etc/fstabpour avoir une idée du moment où les changements ont pu se produire?
Shane Madden le

Réfléchir peut-être a quelque chose à voir avec une question qui est apparue lors de la mise à jour d'apt. Un écran est apparu avec "Configuring mdadm" et m'a demandé si je voulais tout ou aucun, je n'étais pas sûr et ne paraissais pas trouver d'informations sur Google alors il suffit de cliquer sur Entrée sur la valeur par défaut qui était définie sur Tout ...
user568829

-rw-r - r-- 1 racine root 703 14 août 2011 / etc / fstab
user568829

2
@ user568829, si vous souhaitez voir à nouveau cette boîte de dialogue, vous pouvez réexécuter dpkg-reconfigure mdadm. Il vous demande quels volumes vous devez mettre à la disposition de l'initrd pour que votre système démarre. En général, vous pouvez tout choisir, à moins que certains de vos disques ne soient pas disponibles tant que la mise en réseau n'est pas terminée (iSCSI) ou quelque chose comme ça.
Linux Geek

3

Il vous suffit de:

Tout d'abord, changez le mdadm.confavec le résultat demkconf

/usr/share/mdadm/mkconf > /etc/mdadm/mdadm.conf

Ensuite, vous devez mettre à jour le initramfs

update-initramfs -u

Maintenant, vous pouvez redémarrer le système.


1

J'ai eu un problème similaire, mais au lieu de tableaux différents, mdadm.confje suis devenu vide après une mise à niveau de Debian (Lenny vers Squeeze).

W: mdadm: /etc/mdadm/mdadm.conf defines no arrays.

La même solution a fonctionné. J'ai utilisé la sortie de mkconfcomme mdadm.conf:

/usr/share/mdadm/mkconf > /etc/mdadm/mdadm.conf

Le test de redémarrage a réussi.


0

Juste un suivi.

Enfin sauvegardé toutes les données sur le serveur et fait un redémarrage et le serveur a redémarré sans problème. Les modifications décrites ci-dessus (dans la question d'origine) étaient donc correctes.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.