Avoir quelques serveurs et ils ne sont pas fragmentés depuis deux ans. Existe-t-il une norme pour quel pourcentage doit être fragmenté avant la défragmentation?
Les serveurs sont Windows 2003.
Avoir quelques serveurs et ils ne sont pas fragmentés depuis deux ans. Existe-t-il une norme pour quel pourcentage doit être fragmenté avant la défragmentation?
Les serveurs sont Windows 2003.
Réponses:
En fait, je ne défragmente jamais les données sur mes serveurs. Je n'ai pas vu suffisamment de gain de performances dans le fichier servant à faire valoir le coup de performance du temps qu'il faut pour défragmenter. En fait, la plupart des serveurs ne termineront jamais vraiment la défragmentation à moins de les mettre hors ligne pendant quelques jours. Si vous utilisez un système de fichiers relativement moderne (sauf si vous avez choisi de modifier les paramètres par défaut sous Windows 2003), cela ne devrait pas avoir beaucoup d'importance de toute façon. De plus, si vous exécutez une sorte de RAID entrelacé, la fragmentation des fichiers n'est pas un problème car ils sont déjà répartis sur de nombreux disques.
Si j'ai un serveur où je veux vraiment que les données soient propres et défragmentées pour une raison quelconque, je suis beaucoup plus susceptible de tout sauvegarder sur bande, d'essuyer le lecteur et de le restaurer. Cela les inscrira tous dans des blocs parfaits.
À peu près le seul cas d'utilisation que je connaisse pour défragmenter un serveur Windows est d'améliorer les performances de sauvegarde. Les sauvegardes sont à peu près les seules E / S séquentielles à grande échelle utilisées par un serveur de fichiers, et c'est le type d'E / S qui remarque la fragmentation. Le type de serveurs de fichiers d'E / S que les utilisateurs utilisent est très aléatoire, et dans ce cas, la fragmentation peut parfois améliorer les performances.
Lors de mon ancien travail, nous avions un serveur de fichiers que nous venions de migrer vers un nouveau matériel. Immédiatement après la migration, les sauvegardes s'exécutaient sur l'ordre de 450 Mo / minute (c'était il y a de nombreuses années, l'esprit). Deux ans plus tard, ce serveur sauvegardait environ 300 Mo / minute. Nous l'avons ensuite défragmenté pour la première fois, et les vitesses sont remontées à 450 Mo / minute à nouveau.
Si vous rencontrez des problèmes pour que toutes vos sauvegardes soient effectuées à temps et qu'il semble que ce soit le serveur en cours de sauvegarde qui soit le goulot d'étranglement, une défragmentation peut vous aider.
L'autre cas d'utilisation pour la défragmentation est un système de sauvegarde sur disque avec l'archive stockée sur NTFS. La sauvegarde et la restauration sur ce type de volume sont entièrement séquentielles, et cela remarque une fragmentation. Cependant, si le stockage sous-jacent est suffisamment abstrait (comme une matrice de disques HP EVA), même ce type d'E / S ne remarquera pas de fragmentation.
Tout cela revient à dire que les E / S massivement séquentielles sont le type d'E / S qui remarque le plus la fragmentation. Si ce ne sont pas les E / S qui vous préoccupent, la défragmentation n'est pas un problème.
Je conviens que vous n'avez souvent pas besoin et ne devriez pas si la performance est votre objectif (la défragmentation constante fait plus de mal que de bien).
Comme toute règle, il existe cependant quelques exceptions:
Si vous l'êtes, ou à un moment où l'espace disque est très faible (<15% gratuit), vous devriez probablement faire une défragmentation quand le temps le permet. Même les systèmes de fichiers modernes ont du mal à éviter la fragmentation quand il y a si peu de secteurs à choisir.
Si vous exécutez des types d'applications spécifiques qui provoquent une fragmentation inévitable, vous souhaiterez peut-être investir dans un programme de défragmentation spécifique au serveur (ceux-ci sont conçus pour fonctionner en continu en arrière-plan et défragmenter si / si nécessaire). Le type d'application qui provoquerait une fragmentation inévitable dans un environnement Windows serait celui qui fait beaucoup d'écriture paresseuse sur plusieurs fichiers (le logiciel le plus robuste conçu pour le serveur évite cela, mais quelque chose comme un gestionnaire de téléchargement de bureau, en particulier certains clients BitTorrent spécifiques, présente ce type de comportement de fragmentation agressive)
J'ai exécuté Diskeeper sur les serveurs dans un travail précédent et donc une amélioration mesurable des performances sur les serveurs de fichiers et les serveurs d'applications. Je ne pense pas que nous nous soyons approchés de leurs statistiques publiées, mais nous avons certainement vu certains avantages.
Il a été défini pour défragmenter au repos et dans des planifications définies pour limiter l'impact avec quelques bits supplémentaires qui se sont déclenchés au démarrage.
Un outil important est Smart Defrag, par IOBit. Il défragmente en arrière-plan, lorsque votre ordinateur est inactif, et dispose de Deep Optimize et d'autres fonctionnalités. Cela semble utile, vous pouvez donc le mettre là-bas et ne pas avoir à vous soucier de la défragmentation.
AFAIK, RAID n'est pas à l'abri des effets de fragmentation; malgré le nombre de disques physiques, le FS doit toujours émettre une demande d'E / S distincte pour chaque fragment, non?
Oui, un système bien défragmenté termine les sauvegardes plus rapidement. Conviennent également que le faible espace et la fragmentation ne sont pas une bonne combinaison ... mieux vaut éviter cette situation.
Si le temps de défragmentation / planification est un problème, une solution de défragmentation en arrière-plan comme l'une des éditions de Diskeeper Server (non gratuite!) Est un bon choix. Il défragmente en utilisant uniquement des ressources inactives, donc il ne devrait y avoir aucun impact même sur un serveur de production. Certains de nos serveurs utilisent ici DK, et les administrateurs semblent plutôt satisfaits.
BTW, certains des clients BT (utorrent me vient à l'esprit) ont une option de pré-allocation pour le torrent, donc il n'y a pas de fragmentation pendant les téléchargements, tant qu'il y a suffisamment d'espace libre contigu pour accueillir le fichier.
Le consensus (avec lequel je suis d'accord) semble être de ne pas défragmenter sur les serveurs car les avantages ne valent pas les performances atteintes pendant la défragmentation réelle.
Cependant, l' article de TechNet sur les conversions physiques à virtuelles recommande la défragmentation comme méthode pour réduire le temps nécessaire pour effectuer un P2V. Ceci est particulièrement important si vous disposez d'une fenêtre de maintenance limitée pour terminer votre P2V.
Pour réduire le temps nécessaire à la phase de création d'image, effectuez une défragmentation du disque sur les disques durs de l'ordinateur source. Assurez-vous également que vous disposez d'une connexion réseau rapide entre l'ordinateur source et l'hôte.