Ich diskutiere mit einem Kollegen über eine mögliche Konfiguration. Wir implementieren eine neue Blade-Lösung mit einem integrierten 10-Gbit-Switch und zwei Blade-Servern mit jeweils 4 10-Gbit-NICs.
Der Rest unserer Umgebung beträgt jedoch immer noch 1 GB.
Der Blade-Switch verfügt über vier externe 10GBASE-T-Ports, die automatisch bis zu 1 GB erfassen. Wir planen, diese zu LAGEN.
Im Wesentlichen verfügen wir über eine NIC-Bandbreite von 80 GB auf einem 10-Gbit-Switch, der mit einer 4-Gbit-Inter-Switch-Verbindung verbunden ist.
Ich denke, wir sollten die internen Ports manuell auf 1 GB einstellen, aber er glaubt nicht, dass es aufgrund des obigen Designs merkliche Leistungsprobleme geben wird.
Bitte lassen Sie mich wissen, wenn Sie Erfahrung mit einem ähnlichen Setup haben oder wenn Sie Probleme kennen, die wir möglicherweise erwarten.
Antworten:
Grundsätzlich dienen Ihre 40-Gbit-Verbindungsbündel nur der Fehlertoleranz, es sei denn, Sie haben Blade-to-Blade-Übertragungen am Blade-Switch. Selbst eine einzelne 10-Gbit-Serververbindung ist mehr als Ihre gesamte Uplink-Bandbreite.
Es gibt viele Netzwerke und Switches mit gemischter Portgeschwindigkeit. Cisco hat eine Richtlinie, die auf umfangreichen Untersuchungen basiert. Das Bandbreitenverhältnis von Zugriffsport (Ihre Serververbindungen) zu Verteilungsport (Ihre externen Verbindungen) sollte nicht größer als 20: 1 sein. Dies bedeutet, dass Sie für jeweils 20 GB in Ihrer Access-Port-Geschwindigkeit 1 GB Uplink-Port-Geschwindigkeit benötigen. Was Sie beschreiben (80 Gb bis 4 Gb), ist 20: 1. Das empfohlene Verhältnis von Verteilung zu Kern ist mit 4: 1 viel niedriger.
quelle
Sie sollten QoS zwischen Blade-Switches und dem Rest Ihrer Umgebung anwenden , um zu verhindern, dass Jumbo-Flows andere Flows aushungern lassen.
Wie dies erreicht werden kann, hängt von den Hardwarespezifikationen ab. Jeder Ihrer 10-GbE-Ports mit 1-GbE-Switches verfügt jedoch über 8 Hardware-Warteschlangen (0-7, eine Warteschlange pro CoS-Wert), in denen Pakete warten, bis sie an der Reihe sind.
Sie haben die Möglichkeit, Planungsalgorithmen zu konfigurieren, die von jeder Warteschlange verwendet werden (strenge Priorität oder eine Art von Zeitplanung). Die Warteschlange, in der Ethernet-Frames darauf warten, Blade-Switches zu verlassen, kann ausgewählt werden, wenn Frames in den Switch eintreten.
Server-Betriebssysteme, Hypervisoren, müssen Ethernet-Frames markieren, während Blade-Switches die CoS-Werte berücksichtigen und ihrem Gegenstück vertrauen müssen.
Nach dem Markieren enden die Frames in der gewünschten Warteschlange, sodass Sie die Kontrolle behalten.
Weitere Informationen zur Unterstützung und Konfiguration von Data Center Bridging ( DCB ) zwischen Blade-Servern und Switches.
Überprüfen Sie die DCB-Unterstützung in 1-GbE-Switches: Wenn 1-Gb-Switches DCB-kompatibel sind, wirken sich Pausenrahmen, die an Blade-Switches gerichtet sind, im Falle einer Überlastung auf bestimmte Warteschlangen aus (Ethernet Priority Flow Control), während Warteschlangen mit höherer Priorität weiterhin Ethernet-Frames verschieben.
quelle
Es gibt keinen Unterschied. Weil Sie den gleichen Port am Switch mit 1 GB und 10 GB Bandbreite haben. Dieser Switch verfügt wahrscheinlich über einen gemeinsam genutzten Paketpuffer, der kein Problem mit Mikroburst-Drops verursacht. Wenn Sie jedoch einen Bundle-Switch mit separaten Puffern an verschiedenen Ports erhalten, erhalten Sie bei hohen Lastmomenten möglicherweise keinen freien Speicherplatz in der Ausgabewarteschlange.
quelle