Dois-je m'inquiéter de «l'erreur: membre RAID superflu»?


9

Lors de l'exécution update-grubsur Ubuntu 12.04 nouvellement installé avec un ancien logiciel RAID (md), j'obtiens:

error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
Generating grub.cfg ...
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
Found linux image: /boot/vmlinuz-3.2.0-24-generic
Found initrd image: /boot/initrd.img-3.2.0-24-generic
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
Found linux image: /boot/vmlinuz-3.2.0-23-generic
Found initrd image: /boot/initrd.img-3.2.0-23-generic
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
Found memtest86+ image: /boot/memtest86+.bin
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
Found Debian GNU/Linux (5.0.9) on /dev/sdb1
Found Debian GNU/Linux (5.0.9) on /dev/sdc1
done

Je serais moins inquiet si le message disait warning: ..., mais comme il dit, error: ...je me demande quel est le problème.

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid1 sdc1[1] sdb1[0]
      48829440 blocks [2/2] [UU]

md3 : active raid1 sdc2[1] sdb2[0]
      263739008 blocks [2/2] [UU]

md1 : active raid5 sdg1[3] sdf1[2] sde1[1] sdh1[0] sdi1[4] sdd1[5](S)
      1250274304 blocks level 5, 64k chunk, algorithm 2 [5/5] [UUUUU]

unused devices: <none>

Dois-je m'inquiéter ou est-ce inoffensif?

btw: ne tenez pas compte de la mention de Debian 5.0.9, qui était le système précédemment installé et va être écrasé. C'est en /dev/md2fait.

Réponses:


7

Comme mentionné ici par Fussy Salsify, cela semble être un bug du script update-grub avec un périphérique de rechange dans l'une des matrices RAID. Comme mentionné ici, un correctif a été appliqué et devrait arriver sur Ubuntu à un moment donné.

Boyd Stephen Smith Jr. a déclaré qu'il pensait que ce rapport d'erreur pouvait être purement cosmétique ici et Vladimir 'φ-coder / phcoder' Serbinenko a soumis un patch qui semble simplement changer le rapport d'erreur en "les pièces de rechange ne sont pas implémentées".

Il existe également un rapport de bogue sur le tableau de bord ( # 816475 ) et une solution de contournement possible qui implique de modifier le partitionnement. L'importance de ce bogue est indécise au niveau du tableau de bord, mais il semble qu'il ait causé un réel problème à Björn Tillenius qui n'a pas pu mettre à niveau / installer grub. Il semble donc que vous devez être prudent.


Merci @desgua, la partie la plus importante de la question est de savoir si j'ai besoin de m'inquiéter (par exemple, si mon système ne démarre plus) en raison des erreurs. Malheureusement, même en examinant le rapport de bogue que vous avez lié, il ne semble pas y avoir de déclaration concluante et / ou faisant autorité quant à savoir si je dois m'en soucier ou non. +1 pour les pointeurs déjà :)
0xC0000022L

J'ai trouvé plus d'informations ;-)
desgua

0

J'obtenais cette erreur sur Ubuntu 12.04 à la fois pendant la mise à niveau-grub et brièvement au démarrage du PC, mais cela était dû à une mauvaise configuration de mon côté:

J'avais deux partitions sur deux disques couplés avec mdadm en utilisant RAID1. Après qu'un disque s'est écrasé, je l'ai remplacé et j'en ai ajouté un nouveau mais à un moment donné en entrant les commandes pour ajouter les partitions ( mdadm --manage /dev/md... -a /dev/sd...), j'ai ajouté par erreur le disque entier (/ dev / sdb ) au lieu de la partition (/ dev / sdb1 ) en tant que partie de / dev / md1. J'ai supprimé le disque entier et ajouté correctement la partition et les choses se passaient très bien dans / proc / mdstat, donc je pensais que j'étais fini.

Cependant au redémarrage "erreur: membre RAID superflu (2 trouvés)." apparaissait brièvement sur mon écran et le réseau RAID n'a pas été reconstruit avec mes partitions du nouveau disque.

J'ai dû mettre à zéro le superbloc de / dev / sdb (le disque) avec mdadm --zero-superblock /dev/sdbpour le réparer, ce qui a également permis de "l'erreur: membre RAID superflu (2 trouvés)". à la fois au démarrage et à la mise à jour-grub.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.