Nous avons un fournisseur de services (et nous ne pouvons pas changer de fournisseur) qui nous offre une connexion de type "métro ethernet" entre deux de nos sites. À chaque extrémité, nous nous connectons à un port Ethernet sur le commutateur d'un fournisseur et ils expédient les trames d'avant en arrière. Nous obtenons une certaine bande passante d'eux et ils perdent des paquets qui éclatent sur la bande passante.
Je suis à peu près sûr qu'un bon moyen pour nous de ne pas dépasser leur limite et d'éviter les paquets perdus est pour nous de façonner notre trafic pour qu'il reste sous la limite. Je pense que je suis très proche de comprendre comment faire cela, mais c'est assez compliqué. Nous avons un Cisco Catalyst 3560X de chaque côté de la connexion.
Si je veux réduire le trafic à 50 Mbps à travers le tunnel, cela ressemble à la bonne (peut-être seulement?) Façon de le faire est d'utiliser la mise en forme sur les files d'attente de sortie des ports utilisés pour la liaison sur chacun de nos 3560. Nous n'avons pas besoin de marquer ou de classer le trafic, nous voulons juste tout façonner à 50 Mbps. Voici un exemple de configuration de port en ce moment:
interface GigabitEthernet0/1
speed auto 10 100
spanning-tree portfast disable
Je sais que je veux faire mls qos
en mode de configuration globale. Ensuite, je devrais voir quelque chose comme ça:
[Switch name]# show mls qos int gig0/1 queueing
GigabitEthernet0/1
Egress Priority Queue : disabled
Shaped queue weights (absolute) : 25 0 0 0
Shared queue weights : 25 25 25 25
The port bandwidth limit : 100 (Operational Bandwidth:100.0)
The port is mapped to qset : 1
Jusqu'à présent, ma compréhension est la suivante, n'hésitez pas à me corriger:
- Tout le trafic sera CoS 0 / non marqué, il ira donc dans la file d'attente de sortie 2 par défaut.
- La file d'attente de sortie 2 partage la bande passante également avec les files d'attente 3 et 4, et le poids de la file d'attente 1 est ignoré.
- La file d'attente de sortie 1 est configurée pour 1/25 de la bande passante de l'interface, donc 4 Mbps dans ce cas.
Je comprends donc que les files d'attente 2 à 4 sont chacune garanties à 33% de la bande passante (33 Mbps, non?) Et que la file d'attente 1 est configurée à 4 Mbps. Ma première question est:
Avec cette configuration par défaut, si seule la file d'attente 2 est utilisée , combien de bande passante obtiendra-t-elle? 100 Mbps? Et si toutes les files d'attente étaient pleinement utilisées, la file d'attente 1 aurait 4 Mbps et les files d'attente 2 - 4 auraient chacune 32 Mbps (100 - 4 = 96/3 = 32)?
Et maintenant la vraie question:
Pour façonner tout le trafic de sortie non classifié pour qu'il s'adapte à 50 Mbps, puis-je simplement entrer
srr-queue bandwidth shape 0 2 0 0
sur l'interface en question et terminer?
Il semble que le partage de la file d'attente et les limites de mise en forme ne soient pas garantis, donc je pourrais avoir besoin de réduire à 45 Mbps nominal sur la file d'attente de sortie si une rafale de plus de 50 Mbps doit être évitée. Puis-je le faire en exécutant simplement srr-queue bandwidth limit 90
combiné avec la mise en forme ci-dessus? Serait-ce la même chose que d'utiliser à la place:
srr-queue bandwidth shape 0 1 0 0
srr-queue bandwidth limit 45
Est-ce que cela façonnerait la file d'attente de 2 à 45 Mbps (sur une interface à 100 Mbps)?
Une fois que je comprends cela, je suppose que mon prochain arrêt consiste à trier les allocations de tampon et les seuils afin que ma mise en forme supprime le moins de paquets possible, non? Cela peut être une question distincte si nécessaire, mais en fait, cela semble avoir beaucoup plus de sens jusqu'à présent.