Quel type de stockage les gens utilisent-ils réellement pour les serveurs VMware ESX?


27

VMware et de nombreux évangélistes du réseau essaient de vous dire que les SAN fibre sophistiqués (= chers) sont la "seule" option de stockage pour les serveurs VMware ESX et ESXi. Eh bien, oui, bien sûr. L'utilisation d'un SAN est rapide, fiable et rend vMotion possible. Génial. Mais: tous les utilisateurs d'ESX / ESXi peuvent-ils vraiment se permettre des SAN?

Ma théorie est que moins de 20% de toutes les installations VMware ESX sur cette planète utilisent réellement des SAN fibre ou iSCS. La plupart de ces installations seront effectuées dans de plus grandes entreprises qui peuvent se le permettre. Je prédis que la plupart des installations VMware utilisent le "stockage attaché" (les vmdks sont stockés sur des disques à l'intérieur du serveur). La plupart d'entre eux fonctionnent dans des PME et il y en a tellement!

Nous exécutons deux serveurs ESX 3.5 avec stockage attaché et deux serveurs ESX 4 avec un iSCS san. Et la "vraie différence en direct" entre les deux est à peine notable :-)

Connaissez-vous des statistiques officielles pour cette question? Qu'utilisez-vous comme support de stockage?


5
Devrait être un Wiki communautaire
MDMarra

Thèse ou théorie?
Mark Henderson

Réponses:


27

Je fais beaucoup de travail de conseil VMware et je dirais que les pourcentages sont plus proches de 80% de la base installée utilisent un stockage partagé haute disponibilité (FC, iSCSI ou NAS haut de gamme) et beaucoup de mes clients sont des PME. Le facteur clé que j'ai trouvé est de savoir si l'entreprise considère le temps de disponibilité de son serveur comme critique ou non, pour la plupart des entreprises aujourd'hui.

Vous pouvez certainement exécuter des machines virtuelles très hautes performances à partir d'un stockage directement connecté (un HP DL380 G6 avec 16 disques internes dans une matrice RAID 10 aurait des IO de disque assez rapides), mais si vous construisez un VMware ou tout autre environnement virtualisé pour remplacer des dizaines, des centaines , ou des milliers de serveurs, alors vous êtes fou si vous ne mettez pas beaucoup d'efforts (et probablement d'argent) dans une architecture de stockage robuste.

Vous n'avez pas besoin d'acheter un SAN haut de gamme pour les fonctions de clustering - vous pouvez les implémenter avec un NAS assez bon marché (ou un SAN virtualisé comme HP \ Lefthand's VSA) et toujours utiliser un stockage certifié. Cependant, si vous utilisez un stockage partagé et qu'il n'a pas de redondance à tous les points de l'infrastructure SAN \ NAS, vous ne devriez pas vraiment l'utiliser pour beaucoup plus que des tests. Et la redondance est (au minimum) double (indépendante) HBA \ NIC de stockage dans vos serveurs, doubles structures indépendantes, contrôleurs redondants dans le SAN, cache sauvegardé par batterie \ destaging du cache, ventilateurs et alimentations remplaçables à chaud redondants, etc., RAID 5 \ 6 \ 10 \ 50 et le nombre approprié de disques de secours.

La vraie différence en direct entre vos systèmes est que si l'un de vos systèmes autonomes tombe en panne de manière catastrophique, vous avez beaucoup de travail à faire pour le récupérer et vous subirez des temps d'arrêt simplement en le corrigeant. Avec les systèmes connectés en cluster SAN, l'application de correctifs aux hyperviseurs ou même la mise à niveau du matériel de l'hyperviseur ne devrait entraîner aucun temps d'arrêt. Une panne de serveur catastrophique met simplement le service hors service pendant la durée nécessaire pour redémarrer la machine virtuelle sur un nœud distinct (au pire) ou si vous avez une tolérance aux pannes couvrant ces machines virtuelles, vous n'avez aucun temps d'arrêt du tout.


Selon votre entreprise, la redondance du double super duper peut être excessive - quelques pièces de rechange (hbas et gbics, par exemple) peuvent couvrir de nombreux problèmes. Si vous avez un basculement de cluster, cela, plus certains équipements, peuvent fournir suffisamment de résilience à de nombreuses entreprises, en particulier lorsque FC vous donne un choc sur les autocollants.
Jim Zajkowski

Je devrais ajouter nos huit serveurs ESX tous utilisent un disque FC partagé pour le stockage.
Jim Zajkowski

1
Le choc des autocollants True et FC est un vrai problème (les coûts de licence de port sur les commutateurs FC en particulier me donnent des brûlures d'estomac régulières) mais pour une prise en charge à long terme ayant une redondance complète, tout est beaucoup plus facile à gérer, vous pouvez éviter presque tous les temps d'arrêt pour la maintenance de l'infrastructure par exemple . Avec FC, cette redondance coûte un bras et une jambe (et peut-être un rein ou deux), mais avec iSCSI ou un environnement NAS, cela n'ajoute pas beaucoup au coût global, même lorsque vous utilisez des composants relativement chers.
Helvick

1
Je n'ai pas encore vu "doubler tout" ... généralement les disques SAN se branchent sur un fond de panier qui est donc un point de défaillance unique.
James Risto

1

En tant qu'entreprise, nous avons plus d'un millier d'hôtes, nous avons commencé avec FC, essayé iSCSI pendant un certain temps, mais nous sommes repliés sur FC en raison de problèmes de performances. Nous examinons sérieusement NFS mais n'avons pas encore de conclusions. Oh et nous utilisons HP XP / EVA et certains NetApp, nous n'avons pas d'hôtes de bureau / dev sur la barre de stockage locale.


1

Comme vous pouvez le voir, il n'y a pas de solution unique et il n'a pas besoin d'une solution de stockage à classe unique. Vous pouvez avoir plusieurs classes de stockage en fonction des exigences de disponibilité et de performances


1

Pour les écritures et les lectures hautes performances, j'ai trouvé le FC imbattable en termes de performances, et bien que le prix soit élevé ... Cela fonctionne tout simplement ... échanger des fichiers de boîte aux lettres de serveur sur un sous-système de disque FC et les lecteurs de démarrage réels sur un disque d'interface iSCSI, les serveurs DNS et les machines Active Directory s'exécutant également à partir d'iSCSI.


1

J'ai exécuté ESX avec des SAN, NAS et DAS. Cela dépend entièrement:

  1. budget
  2. expérience
  3. centre de données et / ou espace rack
  4. argent

Pour la fiabilité et la vitesse, je ne pense pas que vous puissiez battre un SAN.

Pour la fiabilité et le coût, j'irais avec NAS.

Et pour la vitesse et le coût, DAS.

Non pas que les options individuelles ne se chevauchent pas, mais ce sont les forces dont j'ai été témoin.


0

Nous exécutons 4 serveurs ESX 4 et nous utilisons un SAN EqualLogic iSCSI.


Comment le matériel EqualLogic se compare-t-il à celui de LeftHand ou des SAN traditionnels en termes de prix et de performances?
Sim

Je suis également curieux de savoir comment LeftHand se compare maintenant que HP les a acquis
warren

Je n'ai aucune expérience avec LeftHand. Je suis en train de faire des comparaisons entre notre configuration EqualLogic et un SAN Fibre Channel de Compellent. Je reviendrai avec une mise à jour lorsque j'aurai des résultats.
Richard West

0

Sur les petites installations, le stockage local est parfaitement acceptable tant que vous avez des disques décents - je dirais 10 000 tr / min + disques SAS. La seule fois où vous DEVEZ utiliser un disque partagé (je n'ai pas dit intentionnellement san car votre disque partagé peut être éteint et partager NFS), c'est quand vous devez faire un clustering - VMWare HA et DRS.

Actuellement, nous avons 3 niveaux de stockage - SAN FibreChannel, SAN Equalogix haut de gamme et SAN MD3000i bas de gamme. Les deux derniers sont iSCSI. Nous exécutons également certains serveurs sur le stockage local des serveurs ESX - principalement des serveurs utilitaires que nous ne nous soucions pas s'ils sont en panne pendant une heure ou deux pendant que nous réparons les choses si tout se passe bien sur une boîte.

Nous exécutons également notre environnement de test sur un NAS construit à domicile en utilisant des disques SATA 7,2k et une cible d'entreprise iSCSI (les performances ne sont pas si bonnes que cela, mais elles nous permettent de nous en tirer).

Beaucoup de gens tendent également à courir contre les actions NFS dans des environnements plus grands. Je voulais jouer avec ça depuis un moment mais je n'ai pas trouvé le temps.


0

Nous exécutons quatre (enfin, quatre en direct, un pour les tests) hôtes ESXi avec une structure iSCSI construite à partir de commutateurs de base, et un SAN Hitachi bas de gamme - un SMS-100.

Même à ce niveau, nous avons des contrôleurs jumeaux, chacun avec des ports jumeaux sur un fond de panier SAS afin que l'un ou l'autre contrôleur puisse saisir les disques et les cartes réseau jumelles - que nous croisons entre les câbles et les commutateurs jumeaux, et sur les cartes réseau jumelles dans les hôtes ESX.

Chacun des volumes vfs a quatre chemins visibles, il est donc raisonnablement tolérant. Nous utilisons la commutation Dell poweredge pour le tissu - ils ont certainement des problèmes potentiels (surtout pas de blocs d'alimentation redondants) ... mais ils sont également assez bon marché pour que deux pièces de rechange préconfigurées dans une boîte prêtes à être échangées deviennent une réelle possibilité.

Évidemment, si vous voulez plus de neuf, vous devez dépenser plus d'argent, mais je pense que la beauté de iSCSI, ESXi et du kit Ethernet Gigabit standard est que vous pouvez dépasser votre poids en termes de résilience et de performances.


0

Tout a ses avantages et ses inconvénients ... le résultat est le SLA, la charge d'application et l'échelle. Donc, si vous avez besoin d'un stockage haute performance pour un petit déploiement (1 à 5 hôtes), vous pouvez probablement le retirer avec NFS (j'ai en fait une fois obtenu une meilleure latence avec NFS qu'avec SAN utilisant des disques RAM). Maintenant, essayez de faire évoluer cela et vous constaterez que le coût de la réplication de votre configuration à grande échelle est très comparable à un bon SAN, ce qui fait de FC la seule option logique à parcourir ... La plupart du temps, je finis par utiliser des combinaisons pour divers services (applications , Bases de données, sauvegardes, archives) pas une seule plateforme pour optimiser les coûts, selon les besoins.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.