J'ai eu une matrice RAID5 composée de disques 3x5To assemblés en utilisant mdadm. En plus de cela, j'ai créé un LUKS/dmcrypt couche de cryptage et formaté le périphérique crypté avec ext4. Je veux que les disques s'arrêtent en cas d'inactivité.
Tout a bien fonctionné pendant plusieurs mois, les disques se sont éteints après une minute d'inactivité. Maintenant, j’ai ajouté à la baie de disques un quatrième disque de 5 To du même type: sudo mdadm --add /dev/md0 /dev/sdb1, puis j'ai développé le tableau sur ce disque ( mdadm --grow /dev/md0 --raid-devices=4 ), et a finalement développé le système de fichiers avec sudo fsck -f /dev/mapper/raid5 et sudo resize2fs /dev/mapper/raid5.
Aucune erreur ne s'est produite et le tableau a maintenant une taille supérieure de 5 To. Mais les disques ne tournent plus. La machine fonctionne 24 heures sur 24, 7 jours sur 7, n'utilise pas les disques, mais malgré quelques jours d'attente, les disques fonctionnent tout le temps.
iotop montre des occurrences fréquentes de ext4lazyinit, qui apparaît moins d’une seconde toutes les quelques secondes. Je n'avais pas remarqué cela avant de développer le système de fichiers. Alors, probablement, est-ce que ces tâches permettent de garder les disques éveillés? Mais comment puis-je forcer ext4lazyinit pour compléter sa tâche?
init_itable=0qui cause au moinsext4lazyinitêtre actif avec 100% d'utilisation du disque la plupart du temps. Alors je verrai si ça finit son boulot d'ici demain.