Welche Art von Speicher verwenden die Benutzer tatsächlich für VMware ESX-Server?


27

VMware und viele Network Evangelists versuchen, Ihnen mitzuteilen, dass hoch entwickelte (= teure) Fibre-SANs die "einzige" Speicheroption für VMware ESX- und ESXi-Server sind. Na ja, natürlich. Die Verwendung eines SAN ist schnell, zuverlässig und ermöglicht vMotion. Groß. Aber: Können sich alle ESX / ESXi-Benutzer wirklich SANs leisten?

Meiner Theorie nach verwenden weniger als 20% aller VMware ESX-Installationen auf diesem Planeten Glasfaser- oder iSCS-SANs. Die meisten dieser Installationen werden in größeren Unternehmen durchgeführt, die sich dies leisten können. Ich würde vorhersagen, dass die meisten VMware-Installationen "angeschlossenen Speicher" verwenden (vmdks werden auf Datenträgern im Server gespeichert). Die meisten von ihnen laufen in KMU und es gibt so viele von ihnen!

Wir betreiben zwei ESX 3.5-Server mit angeschlossenem Speicher und zwei ESX 4-Server mit einem iSCS-San. Und der "echte Live-Unterschied" zwischen beiden ist kaum zu bemerken :-)

Kennen Sie offizielle Statistiken zu dieser Frage? Was verwenden Sie als Speichermedium?


5
Sollte ein Community Wiki sein
MDMarra

These oder Theorie?
Mark Henderson

Antworten:


27

Ich mache viel VMware-Beratungsarbeit, und ich würde sagen, dass die Prozentsätze näher an 80% der installierten Basis liegen und gemeinsam genutzten Speicher mit hoher Verfügbarkeit (FC, iSCSI oder High-End-NAS) verwenden. Viele meiner Kunden sind KMUs. Der Schlüsselfaktor, den ich gefunden habe, ist, ob das Unternehmen die Server-Betriebszeit als kritisch einstuft oder nicht, für die meisten Unternehmen ist dies heute der Fall.

Sie können zwar sehr leistungsfähige VMs aus direkt angeschlossenem Speicher ausführen (ein HP DL380 G6 mit 16 internen Laufwerken in einem RAID 10-Array hätte eine recht schnelle Festplatten-E / A), aber wenn Sie eine VMware oder eine andere virtualisierte Umgebung erstellen, die Dutzende, Hunderte ersetzen soll Oder Tausende von Servern, dann sind Sie verrückt, wenn Sie nicht viel Mühe (und wahrscheinlich Geld) in eine robuste Speicherarchitektur stecken.

Sie müssen kein High-End-SAN für die Clustering-Funktionen kaufen - Sie können diese mit einem relativ billigen NAS (oder einem virtualisierten SAN wie dem VSA von HP \ Lefthand) implementieren und dennoch zertifizierten Speicher verwenden. Wenn Sie jedoch gemeinsam genutzten Speicher verwenden und an keiner Stelle in der SAN \ NAS-Infrastruktur Redundanz vorhanden ist, sollten Sie ihn nicht für viel mehr als zum Testen verwenden. Und Redundanz bedeutet (mindestens) zwei (unabhängige) HBAs \ Storage-NICs in Ihren Servern, zwei unabhängige Fabrics, redundante Controller im SAN, batteriegepuffertes Cache \ Cache-Destaging, redundante Hot-Swap-fähige Lüfter und Netzteile usw., RAID 5 \ 6 \ 10 \ 50 und entsprechende Anzahl von Ersatzlaufwerken.

Der wirkliche Unterschied zwischen Ihren Systemen besteht darin, dass bei einem katastrophalen Ausfall eines Ihrer Standalone-Systeme eine Menge Arbeit für die Wiederherstellung anfällt und Sie Ausfallzeiten haben, wenn Sie nur die Patches beibehalten. Bei SAN-verbundenen Clustersystemen sollte das Patchen der Hypervisoren oder sogar das Aktualisieren der Hypervisor-Hardware zu keiner Ausfallzeit führen. Bei einem katastrophalen Serverausfall wird der Dienst nur für die Zeit heruntergefahren, die zum Neustart der VM auf einem separaten Knoten benötigt wird (im schlimmsten Fall). Wenn die Fehlertoleranz für diese VMs gilt, treten überhaupt keine Ausfallzeiten auf.


Abhängig von Ihrem Unternehmen kann die Super-Duper-Doppel-Alles-Redundanz zu viel sein - einige Ersatzteile (z. B. hbas und gbics) können viele Probleme abdecken. Wenn Sie ein Cluster-Failover haben, kann dies zusammen mit einigen Ausrüstungsgegenständen für viele Unternehmen eine ausreichende Ausfallsicherheit bieten, insbesondere wenn FC Ihnen einen Aufkleberschock verleiht.
Jim Zajkowski

Ich sollte unsere acht ESX-Server hinzufügen, die alle gemeinsam genutzte FC-Festplatten als Speicher verwenden.
Jim Zajkowski

1
True und FC-Sticker-Schock sind ein echtes Problem (die Port-Lizenzierungskosten für FC-Switches verursachen insbesondere regelmäßig Sodbrennen). Da die Verwaltung jedoch langfristig durch vollständige Redundanz vereinfacht wird, können Sie beispielsweise fast alle Ausfallzeiten für die Wartung der Infrastruktur vermeiden . Bei FC kostet diese Redundanz zwar einen Arm und ein Bein (und möglicherweise ein oder zwei Nieren), aber bei iSCSI oder einer NAS-Umgebung erhöhen sich die Gesamtkosten nicht wesentlich, selbst wenn relativ teure Komponenten verwendet werden.
Helvick

1
Ich habe noch nicht "alles verdoppeln" gesehen ... normalerweise werden die SAN-Laufwerke in eine Rückwandplatine gesteckt, was daher eine einzige Fehlerquelle darstellt.
James Risto

1

Als Unternehmen mit über tausend Hosts haben wir mit FC angefangen, iSCSI eine Weile ausprobiert, uns aber aufgrund von Leistungsproblemen zu FC zurückgezogen. Wir betrachten NFS ernsthaft, haben aber noch keine Schlussfolgerungen. Oh, und wir verwenden HP XP / EVA und einige NetApp, wir haben keine lokalen Storage Bar Desktop / Dev Hosts.


1

Wie Sie sehen, gibt es keine Einheitsgröße, und es muss nicht nur eine einzige Speicherlösung geben. Sie können je nach Verfügbarkeit und Leistungsanforderungen mehrere Speicherklassen einrichten


1

Für Schreib- und Lesevorgänge mit hoher Leistung war FC unschlagbar in der Leistung, und obwohl der Preis hoch ist ... funktioniert es einfach ... für allgemeinere Leistungserwartungen hat sich iSCSI tatsächlich recht gut entwickelt, daher habe ich normalerweise die Tauschen Sie Serverpostfachdateien auf einem FC-Festplattensubsystem und die tatsächlichen Startlaufwerke auf einer iSCSI-Schnittstellendiskette aus, wobei die DNS-Server und Active Directory-Computer ebenfalls über iSCSI ausgeführt werden.


1

Ich habe ESX mit SANs, NAS und DAS ausgeführt. Es kommt ganz darauf an:

  1. Budget
  2. Erfahrung
  3. Rechenzentrum und / oder Rack-Platz
  4. Geld

Aus Gründen der Zuverlässigkeit und Geschwindigkeit glaube ich nicht, dass Sie ein SAN schlagen können.

Aus Gründen der Zuverlässigkeit und der Kosten würde ich mich für NAS entscheiden.

Und für Geschwindigkeit und Kosten DAS.

Nicht dass sich die einzelnen Optionen nicht überschneiden, aber das sind die Stärken, die ich gesehen habe.


0

Wir betreiben 4 ESX 4-Server und verwenden ein EqualLogic iSCSI-SAN.


Wie hat sich die EqualLogic-Ausrüstung im Vergleich zu LeftHand oder herkömmlichen SANs hinsichtlich Preis und Leistung bewährt?
Sim

Ich bin auch neugierig, wie Lefthand vergleicht nun , dass HP sie erworben ahs
warren

Ich habe keine Erfahrung mit LeftHand. Ich bin gerade dabei, einige Vergleiche zwischen unserem EqualLogic-Setup und einem Fibre-Channel-SAN von Compellent durchzuführen. Ich werde mit einem Update zurückschicken, wenn ich Ergebnisse habe.
Richard West

0

Bei kleineren Installationen ist lokaler Speicher absolut akzeptabel, solange Sie über ordentliche Festplatten verfügen - ich würde sagen, 10k RPM + SAS-Laufwerke. Das einzige Mal, wenn Sie eine freigegebene Festplatte verwenden MÜSSEN (ich habe absichtlich nicht gesagt, san, da Ihre freigegebene Festplatte ausgeschaltet sein kann und NFS-Freigabe), ist, wenn Sie Clustering durchführen müssen - VMWare HA und DRS.

Derzeit verfügen wir über drei Speicherebenen: FiberChannel-SAN, High-End-Equalogix-SANs und Low-End-MD3000i-SANs. Die letzten beiden sind iSCSI. Wir betreiben auch einige Server außerhalb des lokalen Speichers der ESX-Server - meistens Utility-Server, die uns egal sind, wenn sie für ein oder zwei Stunden außer Betrieb sind, während wir Dinge reparieren, wenn alles auf einer Box boomt.

Wir führen unsere Testumgebung auch auf einem selbstgebauten NAS mit 7,2 k SATA-Laufwerken und einem iSCSI-Unternehmensziel durch (die Leistung ist zwar nicht so gut, bringt uns aber zurecht).

Viele Leute neigen dazu, auch in größeren Umgebungen gegen NFS-Anteile anzutreten. Ich wollte eine Weile damit spielen, habe aber keine Zeit gefunden.


0

Wir betreiben vier (also vier Live- und einen Test-ESXi-Hosts) mit einer aus Commodity-Switches aufgebauten iSCSI-Struktur und einem Low-End-Hitachi-SAN - einem SMS-100.

Selbst auf dieser Ebene verfügen wir über zwei Controller mit jeweils zwei Ports auf einer SAS-Rückwandplatine, sodass jeder Controller die Festplatten und die Twin-Nics belegen kann - die wir mit den Twin-Switches und den Twin-Nics in den ESX-Hosts kreuzen.

Jedes der vfs-Volumes verfügt über vier sichtbare Pfade, daher ist es relativ tolerant. Wir verwenden Dell Poweredge Switching für die Fabric - sie haben mit Sicherheit potenzielle Probleme (am allerwenigsten keine redundanten Netzteile). Sie sind jedoch auch so billig, dass es eine echte Möglichkeit ist, zwei vorkonfigurierte Ersatzteile in einer Box zu haben, die zum Austausch bereit ist.

Natürlich, wenn Sie mehr Neunen wollen, müssen Sie mehr Geld ausgeben, aber ich denke, dass die Schönheit des iSCSI-, ESXi- und Standard-Gigabit-Ethernet-Kits darin besteht, dass Sie Ihr Gewicht in Bezug auf Ausfallsicherheit und Leistung übertreffen können.


0

Alles hat seine Vor- und Nachteile: SLA, Anwendungslast und Skalierung. Wenn Sie also Hochleistungsspeicher für eine kleine Bereitstellung (1-5 Hosts) benötigen, können Sie dies wahrscheinlich mit NFS erreichen (ich habe tatsächlich einmal eine bessere Latenz mit NFS als mit SAN mit RAM-Datenträgern erreicht). Wenn Sie das jetzt skalieren, werden Sie feststellen, dass die Kosten für die Replikation Ihres Setups in großem Umfang mit einem netten SAN vergleichbar sind, was FC zur einzig logischen Option macht ... Meistens verwende ich Kombinationen für verschiedene Dienste (Apps) , DBs, Backups, Archive) keine einzige Plattform zur Kostenoptimierung, je nach Bedarf.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.