Là où je travaille, nous avons de nombreux serveurs "big iron" qui sont utilisés pour héberger de nombreuses machines virtuelles à l'aide d'un hyperviseur Xen. Ceux-ci sont généralement configurés avec 32 Go de RAM, des processus Dual Quad core et des disques rapides avec des quantités de capacité d'E / S.
Nous sommes au point où la configuration matérielle existante devient un peu longue dans la dent et il est temps de sortir et de trouver du nouveau matériel plus gros, plus rapide et plus brillant.
Comme mentionné ci-dessus, le kit existant a été déployé avec 32 Go de RAM et cela a effectivement limité le nombre de machines virtuelles que nous pouvons déployer sur un hôte.
En étudiant les nouveaux matériels, il est évident que vous pouvez obtenir de plus en plus de RAM sur une seule machine avec 64, 72 ou même 96 Go dans un seul châssis. Évidemment, cela nous permettra d'obtenir plus de machines sur un hôte donné, ce qui est toujours une victoire. L'analyse effectuée jusqu'à présent suggère que le facteur limitant sera désormais déplacé vers le sous-système de disque.
Le problème est maintenant d'essayer de se faire une idée d'où nous en sommes ... Grâce à l'utilisation, nous savons que nous ne sommes pas limités en termes de bande passante d'E / S, plus encore, le nombre de I aléatoires / O opérations qui peuvent être terminées. Nous savons anecdotiquement qu'une fois que nous avons atteint ce point, iowait va monter en flèche et toutes les performances de la machine vont aux chiens.
Maintenant, c'est le noeud de la question que je pose, est-ce que quelqu'un est au courant d'un moyen de suivre / tendre avec précision les performances d'E / S existantes spécifiquement en fonction du nombre d'opérations d'E / S aléatoires en cours?
Ce que j'essaie vraiment d'obtenir une métrique est "cette configuration peut gérer avec succès X nombre de demandes d'E / S aléatoires, et nous faisons actuellement (en moyenne) Y op avec un pic de Z op".
Merci d'avance!