VMware Distributed vSwitches (VDS) - Conception, théorie, cas d'utilisation * réels * et exemples?


14

Je commence à explorer les commutateurs distribués VMware (dvSwitches ou VDS) pour une utilisation dans des installations existantes et nouvelles. Supposons VMware version 5.1 et plus récente avec licence Enterprise Plus . Avant cela, j'ai fait bon usage des vSwitches standard définis avec les bons types de liaisons montantes physiques (1 GbE ou 10 GbE) et gérés indépendamment sur des hôtes individuels.

Comment l'utilisation d'un commutateur distribué m'aide-t-elle en termes de base? En examinant d'autres installations et configurations décrites sur Internet, je vois beaucoup de situations où le réseau de gestion virtuelle ou les interfaces VMkernel restent sur des commutateurs standard, avec du trafic VM allant vers des commutateurs distribués; un modèle hybride. J'ai même vu des recommandations pour éviter complètement les commutateurs distribués ! Mais plus que tout, les informations que je trouve en ligne semblent obsolètes. Dans une faible tentative de conversion de l'un de mes serveurs existants, je ne savais pas où l'interface de gestion devait être définie et je n'ai pas pu trouver une bonne réponse sur la façon de résoudre ce problème.

Alors, quelle est la meilleure pratique ici? Pour utiliser une combinaison de commutateurs standard et distribués? Ou n'est-ce tout simplement pas une technologie avec un bon esprit partagé? Comment cela est-il coloré par l' inclusion récente des capacités LACP dans VDS?


Voici un nouveau scénario d'installation réel:

  • Serveurs HP ProLiant DL360 G7 avec 6 interfaces 1 GbE servant d'hôtes ESXi (peut-être 4 ou 6 hôtes).
  • Solution de commutateur empilé à 4 membres (Cisco 3750, HP ProCurve ou Extreme).
  • Stockage de machine virtuelle NFS soutenu par un EMC VNX 5500 .

Quelle est la façon la plus propre et la plus résistante de créer cette configuration? On m'a demandé d'utiliser des commutateurs distribués et éventuellement d'intégrer LACP.

  • Lancer les 6 liaisons montantes dans un commutateur distribué et exécuter LACP sur différents membres de la pile de commutateurs physiques?
  • Associer 2 liaisons montantes à un vSwitch standard pour la gestion et exécuter un commutateur distribué connecté à LACP à 4 liaisons montantes pour le trafic VM, vMotion, stockage NFS, etc.?
  • ???
  • Profit.

Réponses:


3

Je sais que de nombreuses nouvelles fonctionnalités ne sont plus prises en charge sur les commutateurs standard, telles que la restauration du réseau en cas de mauvaise configuration et la vérification de l'intégrité du réseau. Vous pouvez maintenant enregistrer et restaurer votre dVS séparément, ce qui, à mon avis, était un gros problème pour les gens (c'est pourquoi certains auraient recommandé d'éviter complètement le dVS.

Je suppose qu'il y a trois raisons pour lesquelles vous devriez utiliser dVS par opposition au standard dans les configurations 5.1:

  • Annulation de la configuration du réseau et contrôles d'intégrité mentionnés ci-dessus
  • Facilité de gestion. Pour vMotion, etc., vous avez généralement besoin que tous vos réseaux soient identiques sur tous les hôtes. C'est une douleur et il y a beaucoup de place pour les erreurs lors de l'utilisation de commutateurs standard. Ce processus est beaucoup plus simple lors de l'utilisation de dVS. En raison de ces fonctionnalités, vous devriez également avoir des ports vmk sur dVS
  • Je pense qu'il n'y aura pas beaucoup plus de développement sur les commutateurs standard, je pense que tout va de plus en plus évoluer vers le dVS. C'est à dire. Je ne pense pas que des fonctionnalités telles que LACP seront déplacées vers des commutateurs standard.
  • Vous pouvez utiliser Network IO pour contrôler l'utilisation des liaisons montantes si vous en avez besoin (si vous vous inquiétez de la saturation de vmotion, etc.)

7

Les deux principaux avantages des commutateurs distribués sont

  1. Plus de fonctionnalités.
    • LACP comme vous l'avez mentionné
    • Visibilité sur l'activité réseau sur chaque port virtuel (afin que vous puissiez voir les compteurs unicast / multicast / broadcast pour une machine virtuelle spécifique dans l'interface vCenter)
    • Annonces CDP du vDS vers les périphériques réseau physiques
    • Mise en miroir / SPAN pour la surveillance ou le dépannage
    • Netflow
    • VLAN privés
    • Et ils sont requis pour certaines fonctionnalités comme le contrôle des E / S réseau et les commutateurs Cisco 1000V
  2. Gestion et configuration simplifiées.
    • Lors de l'ajout d'un nouvel hôte avec une interface desservant les groupes de ports dans un vDS, il vous suffit d'affecter les interfaces au commutateur et il est bon d'utiliser tous les groupes de ports configurés. (Les profils d'hôte peuvent atteindre à peu près la même fin, mais apporter des modifications à un profil d'hôte est beaucoup plus pénible.)

Je les ai utilisés avec beaucoup de succès depuis la 4.1. C'est une grande amélioration par rapport au vSwitch standard, et c'est génial de pouvoir ajouter un nouveau groupe de ports VM à tous les hôtes d'un cluster ou de configurer le réseau d'un nouvel hôte en deux clics, mais j'ai toujours évité de les utiliser sur les hôtes '' interfaces de gestion; semblait être une mauvaise idée.


Donc, vous finissez toujours par utiliser un modèle hybride de commutateurs standard et distribués?
ewwhite

@ewwhite Exactement; la façon dont je l'ai toujours configuré est d'avoir les interfaces pour les ports vmkernel de gestion des hôtes en tant que vSwitches standard, et tout le reste en tant que vDS.
Shane Madden

Voir la disposition du serveur 6 pNIC ci-dessus. Qu'est-ce qui rend la conception plus logique, en intégrant LACP et VDS?
ewwhite

@ewwhite La deuxième option sonne bien, avec la mise en garde que je n'ai pas encore utilisé la fonction LACP dans le vDS 5.1, donc je ne peux pas garantir à quel point cela fonctionne.
Shane Madden
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.