Wie passen Load Balancer in ein Rechenzentrum mit einem viel höheren Durchsatz, als sie verarbeiten können?


10

Sie haben ein Rechenzentrum, das auf 10GE-Verbindungen standardisiert ist. Mit beispielsweise Nexus 7000s im Kern, Nexus 5000s in der Aggregation und einigen Fabric Extendern für den Rand der Server (ich verwende Cisco-Geräte als Beispiele, da dies in meinem speziellen Labor vorhanden ist). Es gibt einige ACE 4710 Load Balancer, die an Ihrem Nexus 5000 hängen, aber diese haben nur 1GE-Schnittstellen. Alle Ihre Switch-Verbindungen sind 10GE, die für den massiven Ost-West-Verkehr (VM-zu-VM) in modernen virtualisierten Rechenzentren benötigt werden.

Werden die Load Balancer unter bestimmten Verkehrsbedingungen nicht zum Engpass? Ich kann sehen, dass ein lokaler Ost-West-Verkehr nicht einmal den Load Balancer erreichen muss, aber es gibt andere Situationen, in denen Sie den Kern und möglicherweise sogar eine Rechenzentrumsverbindung durchqueren müssen.

Grundsätzlich weiß ich, dass die Load Balancer im Client-Server-Verkehr (Nord-Süd) verwendet werden, und Dinge wie HTTP GET benötigen kein 10GE, aber gibt es Situationen, in denen Ihr 1GE Load Balancer einem sonst all- im Wege stehen kann? 10GE Verkehrspfad und Probleme für Dinge wie vMotion verursachen (zum Beispiel)?


1
Der ACE 4710 ist seit 2010 EOL / EOS . Sind Sie an diesen Load Balancer gebunden oder sind Sie offen für die Verwendung eines modernen Load Balancers, der viel höher skaliert werden kann? (Viele Hersteller stellen sie her.) Es gibt keinen Grund, Ihren Durchsatz in der von Ihnen beschriebenen Weise künstlich zu begrenzen. Nun, kein Grund außerhalb der Kosten, aber wenn Sie die von Ihnen beschriebene Infrastruktur gekauft haben, bleibt wahrscheinlich Geld für ein echtes Load-Balancer-Setup übrig.
Brett Lykins

Dies ist eigentlich keine Produktionsumgebung, sondern ein tatsächliches "Labor" -Szenario, das diese bestimmten Geräte enthält. Im Allgemeinen lautet meine Frage angesichts der Verkehrslast eines typischen Rechenzentrums: Wie stellen Sie sicher, dass der Load Balancer nicht zu einem Engpass in Ihrem Design wird? Dies wirkt sich auf Ihr Design aus, z. B. wenn Ihr Rechenzentrum mehrschichtig ist, auf welcher Ebene Sie den Lastenausgleich durchführen usw. In meinem speziellen Beispiel, das ich nicht ändern kann, da es nicht mein Design ist, ist es sinnvoll, diese zu haben ACE-Geräte mit einem Arm aus dem Nexus 5000, die viel leistungsstärker sind.
Sentinel

Antworten:


6

Werden die Load Balancer unter bestimmten Verkehrsbedingungen nicht zum Engpass?

Sicher, aber dies ist in einem ausgereiften Netzwerk im Allgemeinen nicht der Fall.

Sie sollten in der Lage sein, Ihr Netzwerk so zu gestalten, dass der Großteil Ihres internen Server-zu-Server-Verkehrs (wie Sie sagen "Ost-West") auch dann möglich ist, wenn er Ihren Kern oder zwischen Rechenzentren überqueren muss.

Während der Load Balancer häufig das Standard-Gateway für die dahinter liegenden Server ist, habe ich Setups gesehen, bei denen ein Routing-Protokoll (dh OSPF oder RIP) ausgeführt wird, damit der "Ost-West" -Verkehr den Load Balancer umgehen kann, oder in kleineren Bereitstellungen wo statische Routen verwendet wurden.

Wenn die Load Balancer selbst bei einem guten Design einen Engpass darstellen (dh das Verkehrsaufkommen ist nur so hoch), gibt es auch Möglichkeiten zum Load Balancing über mehrere Load Balancer hinweg.


4
Tatsächlich. Wenn sich in Ihrem vMotion-Pfad eine LB befindet, sind Sie als Ingenieur gescheitert.
Ricky Beam

"... es gibt auch Möglichkeiten zum Lastausgleich über mehrere Lastausgleicher" - beispielsweise die Auswahl des Netzwerklastenausgleichs aus dem DNS?
Andrei Rînea

2

Dies ist in der Tat ein Engpass und beschränkt Ihren Durchsatz auf das "schwächste Glied in der Kette", das Ihre LBs sind. Sie können es jedoch umgehen. Wenn Sie etwas verwenden, das als "Switchback" oder "Direct Server Return" bekannt ist, können Sie asynchrone Verkehrsflüsse ausführen. So funktioniert es:

a) Der Client stellt eine http-Anfrage an 2.2.2.2

b) LB antwortet am 2.2.2.2 und leitet die eingehende Anfrage an einen Server weiter. Da sich LB und Server im selben LAN befinden, erfolgt dies auf Schicht 2.

c) Der Server akzeptiert diese eingehende Verbindung, da sich die IP 2.2.2.2 auf einer Alias-Loopback-Schnittstelle befindet (andernfalls würde ein Paket verworfen, das nicht mit einer Schnittstelle übereinstimmt).

d) Der Server antwortet direkt auf den Client.

Die Anforderung beträgt einige Bytes. Der Inhalt kann beliebig groß sein. Der ausgehende Verkehr geht nicht durch die LB, so dass Sie viel mehr Verkehr verarbeiten können.

Prost,

--tc


1
Beachten Sie, dass dies nur für L4-Cluster geeignet ist. Bei L7-Clustern werden dadurch das Umschreiben von Headern, das Einfügen von Cookies (Persistenz), die SSL-Beendigung, jede Art von URL-Übereinstimmung und andere erweiterte Funktionen vieler Lastenausgleiche unterbrochen.
YLearn
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.