Mise en forme de base du catalyseur Catalyst 3560


8

Nous avons un fournisseur de services (et nous ne pouvons pas changer de fournisseur) qui nous offre une connexion de type "métro ethernet" entre deux de nos sites. À chaque extrémité, nous nous connectons à un port Ethernet sur le commutateur d'un fournisseur et ils expédient les trames d'avant en arrière. Nous obtenons une certaine bande passante d'eux et ils perdent des paquets qui éclatent sur la bande passante.

Je suis à peu près sûr qu'un bon moyen pour nous de ne pas dépasser leur limite et d'éviter les paquets perdus est pour nous de façonner notre trafic pour qu'il reste sous la limite. Je pense que je suis très proche de comprendre comment faire cela, mais c'est assez compliqué. Nous avons un Cisco Catalyst 3560X de chaque côté de la connexion.

Si je veux réduire le trafic à 50 Mbps à travers le tunnel, cela ressemble à la bonne (peut-être seulement?) Façon de le faire est d'utiliser la mise en forme sur les files d'attente de sortie des ports utilisés pour la liaison sur chacun de nos 3560. Nous n'avons pas besoin de marquer ou de classer le trafic, nous voulons juste tout façonner à 50 Mbps. Voici un exemple de configuration de port en ce moment:

interface GigabitEthernet0/1
 speed auto 10 100
 spanning-tree portfast disable

Je sais que je veux faire mls qosen mode de configuration globale. Ensuite, je devrais voir quelque chose comme ça:

[Switch name]# show mls qos int gig0/1 queueing
GigabitEthernet0/1 
Egress Priority Queue : disabled
Shaped queue weights (absolute) :  25 0 0 0
Shared queue weights  :  25 25 25 25
The port bandwidth limit : 100  (Operational Bandwidth:100.0)
The port is mapped to qset : 1

Jusqu'à présent, ma compréhension est la suivante, n'hésitez pas à me corriger:

  • Tout le trafic sera CoS 0 / non marqué, il ira donc dans la file d'attente de sortie 2 par défaut.
  • La file d'attente de sortie 2 partage la bande passante également avec les files d'attente 3 et 4, et le poids de la file d'attente 1 est ignoré.
  • La file d'attente de sortie 1 est configurée pour 1/25 de la bande passante de l'interface, donc 4 Mbps dans ce cas.

Je comprends donc que les files d'attente 2 à 4 sont chacune garanties à 33% de la bande passante (33 Mbps, non?) Et que la file d'attente 1 est configurée à 4 Mbps. Ma première question est:

Avec cette configuration par défaut, si seule la file d'attente 2 est utilisée , combien de bande passante obtiendra-t-elle? 100 Mbps? Et si toutes les files d'attente étaient pleinement utilisées, la file d'attente 1 aurait 4 Mbps et les files d'attente 2 - 4 auraient chacune 32 Mbps (100 - 4 = 96/3 = 32)?

Et maintenant la vraie question:

Pour façonner tout le trafic de sortie non classifié pour qu'il s'adapte à 50 Mbps, puis-je simplement entrer
srr-queue bandwidth shape 0 2 0 0sur l'interface en question et terminer?

Il semble que le partage de la file d'attente et les limites de mise en forme ne soient pas garantis, donc je pourrais avoir besoin de réduire à 45 Mbps nominal sur la file d'attente de sortie si une rafale de plus de 50 Mbps doit être évitée. Puis-je le faire en exécutant simplement srr-queue bandwidth limit 90combiné avec la mise en forme ci-dessus? Serait-ce la même chose que d'utiliser à la place:

srr-queue bandwidth shape 0 1 0 0
srr-queue bandwidth limit 45

Est-ce que cela façonnerait la file d'attente de 2 à 45 Mbps (sur une interface à 100 Mbps)?

Une fois que je comprends cela, je suppose que mon prochain arrêt consiste à trier les allocations de tampon et les seuils afin que ma mise en forme supprime le moins de paquets possible, non? Cela peut être une question distincte si nécessaire, mais en fait, cela semble avoir beaucoup plus de sens jusqu'à présent.


1
Une note latérale à votre question: sur la base de l'expérience avec le métro ethernet, vous voudrez peut-être mettre des routeurs de chaque côté et exécuter un protocole de routage et BFD. Lorsque la liaison sera interrompue, les deux parties penseront qu'elle est toujours active car la connexion à l'équipement de télécommunication sera toujours établie. Cela nous a donné beaucoup de frustration dans le passé.
Ron Maupin

@RonMaupin Déjà partie du plan, merci pour le conseil! Une partie du plan comme dans nous n'insérerons pas d'équipement, au lieu de cela, nous utiliserons la capacité de couche 3 des commutateurs pour router d'un endroit à l'autre. Nous ne voulons pas qu'un grand domaine de diffusion traverse une liaison WAN relativement plus lente.
Todd Wilcox

D'ACCORD. Je ne sais pas si vous pouvez exécuter BFD sur ces commutateurs. C'est vraiment la seule solution que nous ayons trouvée pour découvrir que le lien est en panne en peu de temps. Les protocoles de routage prendront un certain temps pour se rendre compte qu'il n'y a pas de connexion à l'autre extrémité, car les liens s'affichent toujours comme haut / haut dans l'équipement.
Ron Maupin

Oh, je ne pensais pas autant à la résilience qu'au routage qu'à la diffusion. Nous n'avons actuellement rien à basculer de toute façon. Dans ce cas, je pense que l'EIGRP pourrait effectivement suffire. Quoi qu'il en soit, c'est plus loin dans l'avenir d'où nous sommes maintenant.
Todd Wilcox

D'ACCORD. J'essayais juste de transmettre une [mauvaise] expérience avec le métro Ethernet. C'est également un problème avec certains autres ports Ethernet. Une partie est vraiment sur des circuits TDM, et les circuits se terminent par un équipement porteur qui apparaît / monte, même lorsque le circuit TDM est en panne. BFD aide vraiment cela, mais il est limité dans les appareils qui peuvent l'utiliser.
Ron Maupin

Réponses:


6

Et maintenant la vraie question:

Pour façonner tout le trafic de sortie non classifié pour qu'il s'adapte à 50 Mbps, puis-je simplement entrer srr-queue bandwidth shape 0 2 0 0sur l'interface en question et terminer?

Il semble que le partage de la file d'attente et les limites de mise en forme ne soient pas garantis, donc je pourrais avoir besoin de réduire à 45 Mbps nominal sur la file d'attente de sortie si une rafale de plus de 50 Mbps doit être évitée. Puis-je le faire en exécutant simplement srr-queue bandwidth limit 90combiné avec la mise en forme ci-dessus?

Réponse courte: Oui, c'est tout ce qu'il faut pour faire la mise en forme de la sortie.

Bien sûr, mls qos doit être entré, mais une fois qu'il est configuré, la mise en forme de sortie sur un port est aussi simple que:

  1. Ajustez le débit de ligne, si nécessaire ( speed 10 100 1000)
  2. Définissez la limite de bande passante, si nécessaire ( srr-queue bandwidth limit 10-90, le dernier argument est le pourcentage du débit de ligne auquel limiter la bande passante)
  3. Entrez le poids de mise en forme pour la file d'attente 2 sur l'interface ( srr-queue bandwidth shape 0 x 0 0où la limite de bande passante (si appliquée) ou le débit de ligne (si aucune limite) divisé par xest la bande passante vers laquelle le trafic est façonné)

Source:
Plus tôt dans la journée, j'ai pris un 3560 supplémentaire, j'ai installé un ordinateur supplémentaire sur chacun des deux ports et j'ai commencé à modifier la configuration tout en copiant les fichiers entre les deux ordinateurs, en regardant le taux de copie estimé et en faisant quelques calculs pour confirmer les chiffres. correspondre.


0

C'est assez simple. Si vous avez RTP ou un LLQ, vous devrez peut-être faire une politique imbriquée mais sinon:

class-map match-any myRate
 match any

policy-map myRatePolicy
 class myRate
  shape average 50m

interface GigabitEthernet0/1
 service-policy output myRatePolicy

Pouvez-vous expliquer si cette méthode de mise en forme fonctionne différemment de la méthode de ma réponse? De plus, savez-vous sur quelles plateformes cela est pris en charge?
Todd Wilcox

On dirait que sur Catalyst 3560, ce match anyn'est pas une sous-commande map-map valide mais je pense que match protocol ipça fait la même chose. La shapesous-commande policy-map class-map n'est pas disponible sur mon Catalyst 3560. Ce sont donc de bonnes informations qui ne répondent pas à ma question. Merci d'avoir répondu, cependant.
Todd Wilcox

La prise en charge de la fonctionnalité @ToddWilcox est un bon point. À droite, le 3560 (qui n'est plus vendu ) ne prend pas en charge ce nouveau style de configuration IOS-XE. De plus, une recherche rapide sur Google révèle certains problèmes signalés avec la mise en forme sur cet ancien commutateur. Vous pourriez bénéficier de sa mise à niveau.
Ronnie Royston

Nous avons neuf 3560 en service et un budget que nous devons respecter et de nombreux autres besoins dans la catégorie des équipements réseau. Aussi .. le seul "problème signalé" que je peux trouver sur ce lien est la mise en garde qu'il ne limite pas réellement au pourcentage exact que vous spécifiez, il le fait en fait par incréments de 6 .. um .. kbps? Quelque chose comme ca. Vous devez donc laisser un peu de marge supplémentaire. Mais la différence est en fait signalée par la sortie de show mls qos int <type><#> queueingdonc vous n'avez pas à deviner.
Todd Wilcox du

De plus, même si j'ai fait mes tests sur un EoL 3560E, je suis sûr que sa configuration est compatible avec le 3560CX , qui est toujours en production et est le véritable commutateur que nous avons en route pour cette application, car nous avons juste besoin d'un faible commutateur de bord de comptage de ports pour l'interfaçage avec notre fournisseur.
Todd Wilcox du
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.