iSCSI-Entwurfsoptionen für verteilte 10-GbE-VMware-Switches? MPIO vs. LACP


9

Ich arbeite daran, das Speicher-Backend für mehrere VMware vSphere 5.5- und 6.0-Cluster in meinem Rechenzentrum zu erweitern. Ich habe während meiner gesamten VMware-Erfahrung hauptsächlich NFS-Datenspeicher verwendet (Solaris ZFS, Isilon, VNX, Linux ZFS) und möglicherweise ein Nimble iSCSI-Array in die Umgebung sowie ein mögliches Tegile (ZFS) -Hybrid-Array eingeführt .

Die aktuellen Speicherlösungen sind Nexenta ZFS- und Linux ZFS-basierte Arrays, die NFS-Bereitstellungen für die vSphere-Hosts bereitstellen. Die Netzwerkkonnektivität wird über 2 x 10 GbE LACP-Amtsleitungen auf den Speicherköpfen und 2 x 10 GbE auf jedem ESXi-Host bereitgestellt. Bei den Switches handelt es sich um zwei Arista 7050S-52- Top-of-Rack-Einheiten, die als MLAG-Peers konfiguriert sind .

Auf der vSphere-Seite verwende ich vSphere Distributed Switches (vDS), die mit LACP-Bindungen auf den 2 x 10 GbE-Uplinks konfiguriert sind, und NIOC- Aufteilungsfreigaben (Network I / O Control) für die VM-Portgruppe, NFS, vMotion und den Verwaltungsverkehr.

Geben Sie hier die Bildbeschreibung ein

Dieser Lösungs- und Designansatz hat jahrelang wunderbar funktioniert, aber das Hinzufügen von iSCSI-Blockspeicher ist für mich eine große Veränderung. Ich muss die NFS-Infrastruktur auf absehbare Zeit noch beibehalten.

Ich möchte verstehen, wie ich iSCSI in diese Umgebung integrieren kann, ohne mein physisches Design zu ändern. Die MLAG an den ToR-Schaltern ist mir sehr wichtig.

  • Für NFS-basierten Speicher ist LACP das allgemein akzeptierte Mittel zur Bereitstellung von Pfadredundanz.
  • Für iSCSI wird LACP normalerweise verpönt, wobei MPIO-Multipath-Designs der empfohlene Ansatz sind.
  • Ich verwende überall 10 GbE und möchte die einfachen Zwei-Port-Verbindungen zu jedem der Server beibehalten. Dies dient der Vereinfachung der Verkabelung und des Designs.

Wie kann ich vor diesem Hintergrund eine iSCSI-Lösung optimal nutzen?

  • ISCSI über LACP konfigurieren?
  • Erstellen Sie VMkernel iSCSI-Adapter auf dem vDS und versuchen Sie, sie an separate Uplinks zu binden, um eine Art mutierten MPIO zu erzielen.
  • Weitere Netzwerkadapter hinzufügen?

Antworten:


1

Ich würde nicht empfehlen, iSCSI über LACP auszuführen, da es gegenüber der grundlegenden Verbindungsredundanz wirklich keinen Vorteil hat.

Das Erstellen von VMkernel-Switches für iSCSI auf Ihrem vDS mit der Software iSCSI HBA ist genau das, was Sie tun sollten. Dies gibt Ihnen echte MPIO. Dieser Blog-Beitrag scheint etwas relevant für das zu sein, was Sie versuchen, ohne die Notwendigkeit einer Migration von Standard-Switches zu beachten : https://itvlab.wordpress.com/2015/02/14/how-to-migrate-iscsi-storage-from- a-Standard-Switch-zu-einem-verteilten-Switch /

Sie sollten keine weiteren Netzwerkadapter hinzufügen müssen, wenn Sie bereits zwei für iSCSI haben. Ich würde jedoch empfehlen, dass Sie Jumbo-Frames (MTU 9000) in Ihrem iSCSI-Netzwerk aktivieren. Dies muss auf allen Netzwerkebenen wie VMkernel, vDS, physischen Switches und SAN-Appliances festgelegt werden.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.