@jlliagre et d'autres qui semblent penser que le zpool entier meurt si l'un des disques (vdevs) meurt mais que le pool n'est pas redondant (mirror / raidz). Ce n'est pas vrai; un pool multi-disques survivra toujours à une seule défaillance complète du disque même s'il ne s'agit pas d'un miroir ou d'un raidz.
Les métadonnées ZFS sont toujours copiées au moins 2 fois, de sorte que la défaillance totale d'un disque complet (ou d'une partie de celui-ci) ne supprimera pas le système de fichiers. De plus, de nombreux fichiers, en particulier les plus petits, ne seront pas répartis sur tous les disques et ne seront donc pas nécessairement défaillants par la défaillance du disque. L'OP pose des questions sur le cas d'un pool multi-disques utilisant des blocs idem (copies de données utilisateur> 1). Ici, une seule défaillance complète du disque ne devrait jamais entraîner de perte de données.ZFS essaiera toujours de placer les blocs idem loin du bloc d'origine, et pour les pools avec plusieurs vdev, cela signifie toujours sur un autre vdev (une exception pourrait être lorsqu'un vdev représente> 50% du pool, ce qui serait très inhabituel) . Les métadonnées du système de fichiers sont également toujours copiées +1 ou +2 fois plus que le niveau idem , de sorte qu'elles survivront toujours à la défaillance du disque. De plus, si vous disposez d'un pool de plus de trois disques, vous devriez pouvoir en perdre jusqu'à la moitié sans perte de données; ZFS stocke les blocs idem sur le disque suivant afin que tant que vous ne perdez jamais deux disques adjacents, vous n'aurez jamais de perte de données. (trois pannes de disque consécutives pour idem = 2).
Lorsqu'il y a suffisamment de copies de données pour accéder à un fichier (que ces copies proviennent de blocs idem, miroir ou raidz), toutes les copies de données manquantes sont réparées lors de l'accès au fichier. C'est le but du gommage; lire toutes les données et corriger celles qui sont mauvaises en utilisant des copies redondantes. Donc, pour répondre directement à la question OP, il vous suffit de faire un nettoyage après avoir remplacé le disque défectueux, et toutes les copies seront restaurées.
Comme toujours, vous pouvez facilement expérimenter les concepts en créant des pools dont les vdev pour le magasin de sauvegarde ne sont que des fichiers épars ordinaires. En supprimant ou en corrompant les fichiers vdev, vous pouvez simuler tout type de panne et vérifier l'intégrité du pool, des systèmes de fichiers et des données en cours de route.
EDIT: après l'expérimentation, il semble que zfs échoue dans le pool si un disque tombe en panne dans un pool multi-disques non redondant avec des copies> = 2. La corruption des données paritaires sur un ou plusieurs disques doit pouvoir survivre et être corrigée par un nettoyage.