Wie verteilt sich die Nutzlast auf Multilink-PPP-Verbindungen?

13

Ein Standort, den ich unterstütze, verwendet 3 T1-Setups mit Multilink-PPP. Sie versuchen, Jive zu verwenden , einen gehosteten VoIP-Anbieter, mit schrecklichen Ergebnissen. Ich möchte wissen, wie Pakete zwischen den einzelnen T1s verteilt werden, da ich denke, dass dies helfen kann, zu erklären, was los ist.

Die SNMP-Überwachung der Multilink-Schnittstelle zeigt, dass sie über verfügbare Kapazität verfügen, ihre VoIP-Testanrufe jedoch schrecklich sind. Es verhält sich so, als ob es eine große Menge von Jitter und verworfenen Paketen gibt. Obwohl einfache Tests mit PING / Iperf keinen Jitter / keine Latenz zeigen, die angesichts der Anrufqualität so schlecht ist, wie Sie es erwarten würden.

Wie werden Pakete zwischen den mehreren T1s verteilt? Ich gehe davon aus, dass es nicht dasselbe ist wie Ethernet-Bonding.

Wenn das Multi-Link-PPP ein Problem ist, was kann ich auf den Routern sehen, die dies anzeigen? Kann es korrigiert werden? Die Router sind von Cisco, ich glaube, sie sind 2800er, aber ich müsste das noch einmal überprüfen.

Zoredache
quelle
Hat Ihnen eine Antwort geholfen? In diesem Fall sollten Sie die Antwort akzeptieren, damit die Frage nicht für immer auftaucht und nach einer Antwort sucht. Alternativ können Sie auch Ihre eigene Antwort eingeben und annehmen.
Ron Maupin

Antworten:

12

Oh ... lass mich diese lange nicht genutzten Neuronen ausgraben, um zu sehen, wie Multilink PPP funktioniert.

Während der LCP-Phase, in der die erste Verbindung während einer Nicht-Multilink-PPP-Sitzung hergestellt wird, verhandeln die beiden Seiten die MRU (Maximum Receive Unit) für jede Richtung der Verbindung ... im Grunde sagt jede Seite der anderen, wie groß ein Paket ist es kann damit umgehen, dorthin geschickt zu werden.

Mit Multilink PPP verhandeln sie das, aber sie verhandeln auch, wenn die erste Verbindung hergestellt wird, eine MRRU oder Maximum Reconstructed Receive Unit.

Da Multilink PPP zusätzlichen Frame-Header-Speicherplatz hinzufügte, machten sich die Entwickler Sorgen über Probleme mit der Pfad-MTU, sodass Multilink Pakete an beiden Enden der Multilink PPP-Sitzung fragmentieren und neu zusammensetzen konnte.

Also, ja, anders als beim Ethernet-Bonding geht es nicht nur darum, Frames über mehrere Links auszubalancieren ... die Frames können tatsächlich fragmentiert und wieder zusammengesetzt werden. Dies kann zu einem Sprung in der Latenz und zu Jitter führen.

Auf T-1-Geräten sollten Sie in der Lage sein, jede Seite mit einer erheblich größeren MRU und MRRU zu konfigurieren als alle Pakete, die wahrscheinlich die Verbindung überqueren müssten. Wenn die MRU so groß oder größer als die MRRU ist, sollten Sie nicht Es ist keine Fragmentierung und keine erneute Montage zu sehen. Hoffentlich wird dadurch die Latenz und der Jitter unter Kontrolle gebracht und Ihr VoIP-Verhalten verbessert. Wahrscheinlich müssen Sie diese Konfiguration auf beiden Seiten der Links anpassen, da jede Richtung unabhängig ausgehandelt wird.

Im Allgemeinen würde ich nicht erwarten, dass VoIP-Pakete fragmentiert werden müssen, obwohl ... sie in der Regel nicht groß genug sind, um das zu benötigen. Es lohnt sich, Ihre MRU- und MRRU-Größen für die Links und die Multilink-Sitzung zu überprüfen.

Jeff McAdams
quelle
3

(habe MLPPP seit den Tagen vor VoIP nicht mehr verwendet. Tatsächlich schaue ich mir eine archivierte Konfiguration aus dem Jahr 2003 an.)

Das einzige, was ich hinzufügen kann:

interface Multilink X
  no ppp multilink fragmentation

Jede Mitgliederschnittstelle hat tx-queue-limit 26; Ich bin mir sicher, dass ich das aus einem bestimmten Grund getan habe.

Kann es korrigiert werden?

Wenn Sie beide Cisco- Endgeräte dazu bringen können, versuchen Sie es mit einem Lastausgleich pro Paket:

interface Serial0/0/4:0
 ip address 198.xx.xx.210 255.255.255.252
 ip load-sharing per-packet
 no fair-queue
!
interface Serial1/0/5:0
 ip address 198.xx.xx.22 255.255.255.252
 ip load-sharing per-packet
 no fair-queue
!
ip route xxx.xxx.201.0 255.255.255.0 198.xx.xx.21
ip route xxx.xxx.201.0 255.255.255.0 198.xx.xx.209

Das funktioniert sogar noch besser (zumindest zwischen Cisco). In diesem Fall mussten wir dies auf diese Weise tun, da sie sich auf unterschiedlichen Linecards befanden. (7500er können nicht [lesen: nicht , sie werden an die RSPs gestoßen] MLPPP über VIPs hinweg durchführen)

Ricky Beam
quelle