Je commence à avoir une collection d’ordinateurs à la maison et à les prendre en charge, j’ai ma boîte Linux «serveur» exécutant une matrice RAID. Son actuellement mdadm RAID-1, aller à RAID-5une fois que j'ai plus de disques (et puis RAID-6j'espère). Cependant, j'ai entendu diverses histoires sur des données corrompues …
Quelqu'un peut-il expliquer la différence entre les UUID rapportés par blkidet mdadm? Sur l'un de nos systèmes CentOS, par exemple: [root@server ~]# blkid | grep /dev/md1 /dev/md1: UUID="32cb0a6e-8148-44e9-909d-5b23df045bd1" TYPE="ext4" [root@server ~]# mdadm --detail /dev/md1 | grep UUID UUID : f204c558:babf732d:85bd7296:bbfebeea Pourquoi sont-ils différents et comment changerions-nous l'UUID utilisé par mdadm? …
Quelqu'un peut-il s'il vous plaît m'expliquer quelle est la différence entre la création d'un mdadmtableau à l'aide de partitions ou la totalité des disques directement? Supposons que j'ai l'intention d'utiliser les disques entiers. Notez qu'ils sont avec GPT. Imaginez le RAID6 créé de deux manières: mdadm --create /dev/md0 --level=6 --raid-devices=4 …
J'ai une matrice logicielle RAID5 (Linux md) sur 4 disques. Je voudrais remplacer l'un des disques par un nouveau, sans mettre la baie dans un état dégradé et, si possible, en ligne. Comment serait-ce possible? C'est important parce que je ne veux pas: prendre le risque de stresser les autres …
J'ai deux ordinateurs différents avec des matrices RAID5 différentes. Lorsque j'exécute la commande mdadm --detail /dev/md0 un lecteur signale "actif" tandis que l'autre signale "propre" pour le champ "état". Quelle est la différence? Dois-je m'inquiéter pour l'un ou l'autre état? Les deux semblent bien fonctionner.
J'ai un seul disque dont je veux créer un miroir; appelons ce disque sda. Je viens d'acheter un autre disque de taille identique, que nous pouvons appeler sdb. sdaet sdbavoir une partition appelée sda1et sdb1respectivement. Lors de la création d'un raid, je ne veux pas effacer mon sdanettoyage et recommencer, …
Sur les systèmes plus récents /usr/share/mdadm/mkconf(le script utilisé pour générer /etc/mdadm/mdadm.conf) a tendance à utiliser le nom du périphérique /dev/md/0au lieu de /dev/md0: new-system ~ # /usr/share/mdadm/mkconf | grep ARRAY ARRAY /dev/md/0 metadata=1.2 UUID=a0021927:0e4f10bf:2c47dc72:ca0b352e name=unassigned:0 Cela peut provoquer une certaine irritation pour les utilisateurs qui /dev/md0s'y attendent , mais apparemment, …
J'ai créé un nouveau tableau md avec la commande suivante: mdadm --create /dev/md1 -l 1 -n 2 /dev/sd[ed]1 Mais /proc/mdstatmontre maintenant le tableau comme "lecture seule automatique" avec resync = PENDING: ~ # cat /proc/mdstat Personalities : [raid1] md1 : active (auto-read-only) raid1 sde1[1] sdd1[0] 976630336 blocks super 1.2 [2/2] …
Je suis sur le point de réorganiser tous mes disques durs dans ma boîte Linux à la maison et j'aimerais utiliser raid mdadm pour la protection des données et sa flexibilité pour remodeler les baies. Cependant, avant d'utiliser mdadm pour cela, j'aimerais savoir comment il gère la pourriture des bits …
J'ai ma partition / boot dans une matrice RAID 1 utilisant mdadm. Cette matrice s'est dégradée plusieurs fois dans le passé, et chaque fois que je supprime le disque physique, en ajoute une nouvelle, ramène la matrice à la normale, elle utilise une nouvelle lettre de lecteur. Laisser l'ancien toujours …
Je veux utiliser deux disques de 3 To dans une configuration mdadm raid1 (en utilisant Debian Sequeeze). Les lecteurs utilisent des secteurs matériels 4k au lieu des secteurs traditionnels de 512 octets. Je suis un peu confus car d'une part le noyau rapporte: $ cat /sys/block/sdb/queue/hw_sector_size 512 Mais d'autre part …
J'ai une machine Debian sur mon réseau local servant de serveur de sauvegarde pour les autres. Il dispose de quatre disques durs combinés en un périphérique logiciel RAID 5 md, sur un LVM et sur ce btrfs. Les sauvegardes sont effectuées à l'aide de rsync et, pour un système de …
J'essaie de scripter la configuration RAID pour un nombre (croissant) de serveurs identiques. Les conseils que j'ai vus concernant l'utilisation de mdadm suggèrent qu'une fois la matrice RAID créée, vous pouvez l'exécuter mdadm --examine --scan >> /etc/mdadm.confafin que la matrice soit initialisée au démarrage. Mais cela ne semble pas fonctionner …
Il n'y a pas longtemps, j'ai créé une nouvelle matrice RAID logicielle ( mdadm) avec 4 disques en RAID6 . Cela semble très bien fonctionner. mdstatsuit: Personalities : [raid6] [raid5] [raid4] md0 : active raid6 sda1[0] sde1[3] sdd1[2] sdb1[1] 1953260544 blocks super 1.2 level 6, 512k chunk, algorithm 2 [4/4] …
J'ai plutôt vérifié au hasard le statut de mes matrices RAID avec cat/proc/mdstatet réalisé que l'une de mes matrices semble resynchroniser: md1 : active raid1 sdb7[1] sdc7[0] 238340224 blocks [2/2] [UU] [==========>..........] resync = 52.2% (124602368/238340224) finish=75.0min speed=25258K/sec Pourquoi est-ce et qu'est-ce que cela signifie? Apparemment, je peux très bien …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.