Hyper-V-Cluster mit Failover - NETZWERK


7

Wir möchten einen 3-Knoten-Hyper-V-Cluster mit Live-Migration und Failover einrichten.

  • 3 x Dell R710 mit Dual-Quad-Core-Xeon & 128 GB RAM & 6 NICs in jedem
  • 1 x Dell MD 3220i SAN

Wir werden dieses Setup von einem Rechenzentrum aus ausführen und so unser Kit gemeinsam lokalisieren.

Kann jemand erklären, wie wir die Netzwerkverbindungen einrichten sollten, um das System redundant zu machen?

Wir haben uns diesen großartigen Artikel angesehen, sind uns aber nicht sicher, wie wir ein 3-Server-Setup korrekt und zuverlässig erhalten können: http://faultbucket.ca/2011/01/hyper-v-failover-cluster-setup/ .

Ich glaube, wir brauchen Netzwerkverbindungen für: Live-Migration, Heartbeat, Management, Hyper-V usw.

Ich gehe davon aus, dass beim Ausführen von einem DC alle IPs öffentliche IPs sein müssen.

Sind AD-Server VMs. Eine auf jedem Hyper-V-Server und Setup, um nicht HA zu sein.


1
Ich möchte nicht scharfsinnig klingen, aber Virtualisierungsclustering und Hochverfügbarkeit sind sehr schwer zu erreichen. Es kann wirklich hilfreich sein, dafür zu bezahlen, dass ein Experte hereinkommt und es einrichtet und Sie schult . Ich weiß, dass Dell diesen Service anbietet (es waren ungefähr 17.000 US-Dollar, wenn ich mich richtig erinnere).
Mark Henderson

Vielen Dank. Wir haben Dell gebeten, dies zu zitieren, aber ich bin nicht sicher, ob das IP / Data Center-Bit eingerichtet wird. Sie zitieren £ 2.000,00
Adam Chetnik

Sie senden Ihnen einen Standardarbeitsumfang zu, und Abweichungen davon sind teuer. Die Arbeitsbereiche sind ziemlich detailliert. Zu den 17.000 US-Dollar gehörten (für uns) ein Array der PS-Serie, VMWare, die Einrichtung und Konfiguration von iSCSI sowie Grundschulungen und P2V-Migrationen. Wir haben beschlossen, dass wir diese 17.000 Stunden damit verbringen könnten, jemanden im eigenen Haus zu schulen, also haben wir sein Angebot nicht angenommen, also weiß ich nicht, wie es im wirklichen Leben tatsächlich funktioniert.
Mark Henderson

"Ich gehe davon aus, dass alle IPs öffentliche IPs sein müssen, wenn wir sie von einem DC aus ausführen." - Verwenden Sie nach Möglichkeit keine internen IP-Adressen. Kaufen Sie entweder VPN-Konten vom DC oder richten Sie sie selbst ein. Ich bin auch damit einverstanden, dass MINDESTENS ein AD außerhalb dieser Konfiguration sein sollte oder die Hyper-V-Server nicht Teil des AD sein sollten, da Sie sich im
Fehlerfall

Ich bin ein bisschen zu spät zur Party. Das einzige, was ich wirklich wiederholen muss, ist, dass für den Start von Hyper-V-Clustern AD erforderlich ist. Sie benötigen mindestens einen AD-Server außerhalb des Clusters.
Chris S

Antworten:


4

Ich war dort! Letztes Jahr habe ich einen ähnlichen Cluster (außer meine Boxen waren Fujitsu) mit einem iSCSI-SAN für Hyper V eingerichtet.

Eigentlich ist es nicht so schwer, aber es wird Stolpersteine ​​auf dem Weg geben. Wenn Sie kolokalisieren, würde ich auf jeden Fall Ihre Installation in einem Server-Rack in Ihrem eigenen Gebäude einstudieren, bevor ich sie in das Rechenzentrum verlege (ich habe dafür einen schallisolierten Serverschrank verwendet).

Oh, eine andere Sache in Vorbereitung, Sie erwähnen dies nicht, aber eine Sache, die ich nicht stören würde, ist der iSCSI-Boot, der auf einigen iSCSI-Systemen angeboten wird. Das Einrichten ist mühsam und funktioniert nicht immer mit Redundanz. Es ist immer besser, ein oder zwei physische Startdisketten auf den Knoten zu haben, damit Sie sie bei einem Netzwerkkonfigurationsproblem oder einem iSCSI-Problem trotzdem hochfahren können. Ich verwende kleine Solid-State-Laufwerke (40 GB) auf jedem meiner Server für Startdisketten.

Sie benötigen definitiv einen separaten AD DC. Tatsächlich habe ich mit einem 3-Knoten-Cluster begonnen und diesen dann auf 2 Knoten sowie einen nicht gruppierten 'Master-Knoten' beschränkt, der Sicherungen auf DPM 2010 und einem virtualisierten DC ausführt.

Sie erwähnen 6 Ports, dies kann ausreichen. Erlauben Sie mir jedoch, meine Knotenkonfiguration mit 10 Ports zu veranschaulichen:

  • Sie benötigen immer 2 Ports pro Knoten für das iSCSI-Netzwerk (jeder gehört aus MPIO- Redundanz zu einem anderen Subnetz und sollte sich auf separaten NICs befinden).
  • 1 Port für Heartbeat, auf dem kein anderer Datenverkehr vorhanden ist
  • 1 Port für Live-Migration und -Übertragungen (dies ist der einzige, den Sie möglicherweise auf 10 g oder Infiniband aktualisieren möchten, aber es lohnt sich nicht, wenn Sie nicht 10 VMs pro Tag bereitstellen).
  • 1 Port für Remotedesktopzugriff
  • 1 Port für Server Management Card
  • 1 Satz Team-Ports, die das Hauptzugriffsnetzwerk bilden *
  • 1 Satz Team-Ports, die ein DMZ-Netzwerk bilden (optional) *

* Kritiker weisen häufig darauf hin, dass Microsoft das Port-Teaming nicht offiziell unterstützt (während VMWare dies tut), aber das offizielle Wort lautet, dass sie es nicht entmutigen, sondern einfach das Gefühl haben, dass der Support in den Händen der NIC-Anbieter liegt. Ich verwende Intel-Netzwerkkarten der ET-Generation, die über bestimmte Funktionen für virtuelle Netzwerke verfügen, und finde, dass sie mit Hyper V sehr gut funktionieren. Sie ermöglichen es Ihnen tatsächlich, ein Team zwischen Switches aufzuteilen, sodass Sie bei einem Ausfall eines der Switches einen konsistenten Teamzugriff haben , ein bisschen wie MPIO, aber für virtuelle Maschinen.

Hyper V ist wirklich sehr belastbar und gut zu bedienen. Ich würde Ihren Job in dieser Reihenfolge angehen: 1) Richten Sie die Knoten einzeln ein, installieren Sie den iSCSI-Initiator, installieren Sie MPIO, geben Sie Ihren iSCSI-Ports, Transport- und Heatbeat-Ports und Verwaltungsports unterschiedliche Subnetzadressen.
2) Richten Sie Hyper V ein und weisen Sie die ausgewählten Ports Ihrem virtuellen Netzwerk zu. 3) Führen Sie dann den Cluster-Validierungsassistenten aus und bilden Sie den Cluster.

Sie sollten Ihrem virtuellen Netzwerk immer zuerst Ports zuweisen, da dies verhindert, dass sie vom Cluster verwendet werden. Dies klingt nicht intuitiv, aber im Grunde halten Sie Ihr virtuelles Netzwerk unabhängig von Ihrem Clusternetzwerk. Dies gibt Ihnen immer noch Redundanz, also machen Sie sich keine Sorgen. Um dies zu erreichen (und es gibt keinen anderen Weg), müssen Sie entweder einen separaten Satz von Switches für Ihren Cluster und Hyper-V (jeweils zwei für die Redunanz) haben, oder Sie müssen VLANs auf Ihren Switches einrichten. Ich mache letzteres (mit nicht getaggten VLANs) und es funktioniert großartig.

Einige andere Beiträge hier haben vorgeschlagen, dass Sie einen Berater verwenden, um diese Arbeit zu erledigen. Wenn sie mit Hyper V vertraut sind, ist dies möglicherweise eine gute Idee. Es gibt Ihnen nicht das tiefgreifende Wissen, das Sie sonst von DIY erwerben würden, aber es spart Ihnen Zeit. Ich hatte letztes Jahr viel Zeit und es ist mir nicht peinlich zuzugeben, dass ich mehrere Monate gearbeitet und herausgefunden habe, um alles zum Laufen zu bringen.

Viel Glück!


1

Willkommen in einer Welt voller Schmerzen. Sie machen einen Fehler, der Ihre Erfahrung in einem Moment ruiniert, wenn Sie sich in einer Welt voller Schmerzen befinden, weil Sie die Dinge nicht durchdacht haben.

Sind AD-Server VMs. Eine auf jedem Hyper-V-Server und Setup, um nicht HA zu sein

DENKEN Sie, was Sie dort tun. Windows-Clustering benötigt AD zum Starten, da sich die Konfiguration in AD befindet. Wenn aus irgendeinem Grund die Stromversorgung im Rechenzentrum ausfällt, wird der Cluster beim erneuten Hochfahren nicht gestartet, da keine AD-Server bereit sind. Sie müssen 100% vorsichtig damit sein.

Ich empfehle dringend, dass Sie eine zusätzliche kleine Maschine (Atom-basiert, wenn sie nicht funktioniert) als steuernde AD (dh wichtige Rollen) mit einem separaten USV behalten. CLustering funktioniert gut, aber wenn alle AD-Controller in VMs vorhanden sind, ist dies problematisch.

http://technet.microsoft.com/en-us/library/ff428137(WS.10).aspx

hat den Führer, den Sie brauchen. Darüber hinaus sollten Sie ein schnelles Netzwerk-Backbone verwenden. Nein, nicht 10g ... zu langsam, zu teuer. Holen Sie sich einen schönen Satz Infiniband-Karten, einen Infiniband-Schalter und machen Sie sich mit SCHNELLEN Überweisungen vertraut.

Das SAN ist in IOPS möglicherweise auch zu klein. Wenn Sie über 100% Last auf zwei Computern sprechen (einer in Reserve), ist das eine Menge VMs. Sie müssen sicherstellen, dass Ihre IOPS-Budgets dafür geeignet sind. Ich habe manchmal Probleme mit einem 6 10k Raptor Raid 10 auf einem einzelnen 64-GB-Host - Sie führen das 4-fache des Speicherbudgets aus, daher würde ich das 4- bis 6-fache des IOPS-Bedarfs erwarten (und ich habe dort keine Datenbanken, diese sind separat). Stellen Sie sicher, dass Sie wissen, dass die SAN-Seite gut genug ist.


Wie würde man einen Kopf gehen und die tatsächlich benötigten IOPS (im Durchschnitt und in der Spitze) berechnen?
3molo

Vorausgesetzt. Ernsthaft - hängt VOLLSTÄNDIG von der Last ab. Grundsätzlich beginne ich mit einem erweiterbaren RAID-Array und stelle sicher, dass ich genug Platz habe, um Discs einzustecken (in meinem Fall 24). Für ein Setup wie Ihres würde ich möglicherweise mit einem 12-16 RAID 10 10k Discs beginnen.
TomTom

1

Ich lese über dieselbe Netzwerkkonfiguration und hier ist kurz, was ich für richtig halte. Bitte korrigiere mich wenn ich falsch liege.

  • 2 (Etherchannel / HP Trunked) für die Live-Migration
  • 2 (Etherchannel / HP Trunked) für normale Netzwerkkonnektivität
  • 2 für SAN kann kein Etherchannel als Windows-Server MPIO ausführen

Verwenden Sie zwei Schalter. Wenn das Stapeln nicht möglich ist, erstellen Sie einen Etherchannel / HP-Trunk zwischen ihnen und verwenden Sie (mindestens) so viele Ports, wie Sie für Ihr SAN aktiv haben. Ports dafür.

  • Aktivieren Sie an den Ports für das SAN und an den SAN-Nics auf den Servern Jumbo-Frames und die Flusskontrolle. Dies sollte auch auf den Inter-Switch-Verbindungen eingestellt werden.
  • Inter-Switch-Ports sollten Etherchannels / HP-Trunk-Ports sein. Ich denke, sowohl Jumbo-Frames als auch Flow Control sind aktiviert
  • Live-Migration verbindet Etherchanneled (HP Trunks), Jumbo-Frames und Flusskontrolle.

Schalten Sie die Unicast-Sturmkontrolle an den Schaltern aus. Verwenden Sie nach Möglichkeit andere Switches für die Netzwerkkonnektivität. Deaktivieren Sie das Spanning Tree-Protokoll.

In Bezug auf das 3220i SAN denke ich, dass es 4 Gbit-Ports hat, zwei auf jedem Controller. Ich denke, es ist eine aktive passive, und wenn Sie eine von jeder Controller-NIC mit jeweils einem Switch verbinden.

Ich habe vergessen zu erwähnen, dass Sie Live-Migration und SAN in verschiedenen VLANs trennen sollten. Vermeiden Sie das Standard-VLAN (1). Verwenden Sie gute Schalter, die Puffer (oder etwas anderes) haben einen ziemlich großen Einfluss auf die Leistung (so lese ich).



0

Während für das Windows-Clustering AD erforderlich ist, können Sie dafür sorgen, dass es in vollständig virtualisierten Umgebungen mit zwei Knoten sehr gut funktioniert.

Ich würde diese Empfehlungen aussprechen, die mir sowohl für unser internes Netzwerk als auch für unsere Kundennetzwerke gute Dienste geleistet haben: - Reservieren Sie auf jedem Knoten Ihres Clusters genügend Speicherplatz und E / A, um einen lokalen DC auszuführen. Auf diese Weise hat der Clusterdienst nie lange gesucht, um etwas zum Abfragen zu finden. - Stellen Sie den Clusterdienst auf "Automatisch (verzögerter Start)". Auf diese Weise hat Hyper-V etwas mehr Zeit, um vor dem Clusterdienst zu starten.


1
Während dies wahrscheinlich für kleine Installationen funktioniert; Im Allgemeinen sind Hyper-V-Cluster ausreichend groß, um sicherzustellen, dass die Hyper-V-Hosts für ihre Aufgabe dediziert und standardisiert sind, sowie eine externe Active Directory-Box. Dies ist sehr ähnlich zu SBS-Boxen mit AD, Exchange und SQL auf demselben Betriebssystem. Es funktioniert möglicherweise für sehr kleine Installationen, ist jedoch definitiv keine bewährte Methode.
Chris S
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.