VMware und viele Network Evangelists versuchen, Ihnen mitzuteilen, dass hoch entwickelte (= teure) Fibre-SANs die "einzige" Speicheroption für VMware ESX- und ESXi-Server sind. Na ja, natürlich. Die Verwendung eines SAN ist schnell, zuverlässig und ermöglicht vMotion. Groß. Aber: Können sich alle ESX / ESXi-Benutzer wirklich SANs leisten?
Meiner Theorie nach verwenden weniger als 20% aller VMware ESX-Installationen auf diesem Planeten Glasfaser- oder iSCS-SANs. Die meisten dieser Installationen werden in größeren Unternehmen durchgeführt, die sich dies leisten können. Ich würde vorhersagen, dass die meisten VMware-Installationen "angeschlossenen Speicher" verwenden (vmdks werden auf Datenträgern im Server gespeichert). Die meisten von ihnen laufen in KMU und es gibt so viele von ihnen!
Wir betreiben zwei ESX 3.5-Server mit angeschlossenem Speicher und zwei ESX 4-Server mit einem iSCS-San. Und der "echte Live-Unterschied" zwischen beiden ist kaum zu bemerken :-)
Kennen Sie offizielle Statistiken zu dieser Frage? Was verwenden Sie als Speichermedium?
quelle
Antworten:
Ich mache viel VMware-Beratungsarbeit, und ich würde sagen, dass die Prozentsätze näher an 80% der installierten Basis liegen und gemeinsam genutzten Speicher mit hoher Verfügbarkeit (FC, iSCSI oder High-End-NAS) verwenden. Viele meiner Kunden sind KMUs. Der Schlüsselfaktor, den ich gefunden habe, ist, ob das Unternehmen die Server-Betriebszeit als kritisch einstuft oder nicht, für die meisten Unternehmen ist dies heute der Fall.
Sie können zwar sehr leistungsfähige VMs aus direkt angeschlossenem Speicher ausführen (ein HP DL380 G6 mit 16 internen Laufwerken in einem RAID 10-Array hätte eine recht schnelle Festplatten-E / A), aber wenn Sie eine VMware oder eine andere virtualisierte Umgebung erstellen, die Dutzende, Hunderte ersetzen soll Oder Tausende von Servern, dann sind Sie verrückt, wenn Sie nicht viel Mühe (und wahrscheinlich Geld) in eine robuste Speicherarchitektur stecken.
Sie müssen kein High-End-SAN für die Clustering-Funktionen kaufen - Sie können diese mit einem relativ billigen NAS (oder einem virtualisierten SAN wie dem VSA von HP \ Lefthand) implementieren und dennoch zertifizierten Speicher verwenden. Wenn Sie jedoch gemeinsam genutzten Speicher verwenden und an keiner Stelle in der SAN \ NAS-Infrastruktur Redundanz vorhanden ist, sollten Sie ihn nicht für viel mehr als zum Testen verwenden. Und Redundanz bedeutet (mindestens) zwei (unabhängige) HBAs \ Storage-NICs in Ihren Servern, zwei unabhängige Fabrics, redundante Controller im SAN, batteriegepuffertes Cache \ Cache-Destaging, redundante Hot-Swap-fähige Lüfter und Netzteile usw., RAID 5 \ 6 \ 10 \ 50 und entsprechende Anzahl von Ersatzlaufwerken.
Der wirkliche Unterschied zwischen Ihren Systemen besteht darin, dass bei einem katastrophalen Ausfall eines Ihrer Standalone-Systeme eine Menge Arbeit für die Wiederherstellung anfällt und Sie Ausfallzeiten haben, wenn Sie nur die Patches beibehalten. Bei SAN-verbundenen Clustersystemen sollte das Patchen der Hypervisoren oder sogar das Aktualisieren der Hypervisor-Hardware zu keiner Ausfallzeit führen. Bei einem katastrophalen Serverausfall wird der Dienst nur für die Zeit heruntergefahren, die zum Neustart der VM auf einem separaten Knoten benötigt wird (im schlimmsten Fall). Wenn die Fehlertoleranz für diese VMs gilt, treten überhaupt keine Ausfallzeiten auf.
quelle
Als Unternehmen mit über tausend Hosts haben wir mit FC angefangen, iSCSI eine Weile ausprobiert, uns aber aufgrund von Leistungsproblemen zu FC zurückgezogen. Wir betrachten NFS ernsthaft, haben aber noch keine Schlussfolgerungen. Oh, und wir verwenden HP XP / EVA und einige NetApp, wir haben keine lokalen Storage Bar Desktop / Dev Hosts.
quelle
Wie Sie sehen, gibt es keine Einheitsgröße, und es muss nicht nur eine einzige Speicherlösung geben. Sie können je nach Verfügbarkeit und Leistungsanforderungen mehrere Speicherklassen einrichten
quelle
Für Schreib- und Lesevorgänge mit hoher Leistung war FC unschlagbar in der Leistung, und obwohl der Preis hoch ist ... funktioniert es einfach ... für allgemeinere Leistungserwartungen hat sich iSCSI tatsächlich recht gut entwickelt, daher habe ich normalerweise die Tauschen Sie Serverpostfachdateien auf einem FC-Festplattensubsystem und die tatsächlichen Startlaufwerke auf einer iSCSI-Schnittstellendiskette aus, wobei die DNS-Server und Active Directory-Computer ebenfalls über iSCSI ausgeführt werden.
quelle
Ich habe ESX mit SANs, NAS und DAS ausgeführt. Es kommt ganz darauf an:
Aus Gründen der Zuverlässigkeit und Geschwindigkeit glaube ich nicht, dass Sie ein SAN schlagen können.
Aus Gründen der Zuverlässigkeit und der Kosten würde ich mich für NAS entscheiden.
Und für Geschwindigkeit und Kosten DAS.
Nicht dass sich die einzelnen Optionen nicht überschneiden, aber das sind die Stärken, die ich gesehen habe.
quelle
Wir betreiben 4 ESX 4-Server und verwenden ein EqualLogic iSCSI-SAN.
quelle
Bei kleineren Installationen ist lokaler Speicher absolut akzeptabel, solange Sie über ordentliche Festplatten verfügen - ich würde sagen, 10k RPM + SAS-Laufwerke. Das einzige Mal, wenn Sie eine freigegebene Festplatte verwenden MÜSSEN (ich habe absichtlich nicht gesagt, san, da Ihre freigegebene Festplatte ausgeschaltet sein kann und NFS-Freigabe), ist, wenn Sie Clustering durchführen müssen - VMWare HA und DRS.
Derzeit verfügen wir über drei Speicherebenen: FiberChannel-SAN, High-End-Equalogix-SANs und Low-End-MD3000i-SANs. Die letzten beiden sind iSCSI. Wir betreiben auch einige Server außerhalb des lokalen Speichers der ESX-Server - meistens Utility-Server, die uns egal sind, wenn sie für ein oder zwei Stunden außer Betrieb sind, während wir Dinge reparieren, wenn alles auf einer Box boomt.
Wir führen unsere Testumgebung auch auf einem selbstgebauten NAS mit 7,2 k SATA-Laufwerken und einem iSCSI-Unternehmensziel durch (die Leistung ist zwar nicht so gut, bringt uns aber zurecht).
Viele Leute neigen dazu, auch in größeren Umgebungen gegen NFS-Anteile anzutreten. Ich wollte eine Weile damit spielen, habe aber keine Zeit gefunden.
quelle
Wir betreiben vier (also vier Live- und einen Test-ESXi-Hosts) mit einer aus Commodity-Switches aufgebauten iSCSI-Struktur und einem Low-End-Hitachi-SAN - einem SMS-100.
Selbst auf dieser Ebene verfügen wir über zwei Controller mit jeweils zwei Ports auf einer SAS-Rückwandplatine, sodass jeder Controller die Festplatten und die Twin-Nics belegen kann - die wir mit den Twin-Switches und den Twin-Nics in den ESX-Hosts kreuzen.
Jedes der vfs-Volumes verfügt über vier sichtbare Pfade, daher ist es relativ tolerant. Wir verwenden Dell Poweredge Switching für die Fabric - sie haben mit Sicherheit potenzielle Probleme (am allerwenigsten keine redundanten Netzteile). Sie sind jedoch auch so billig, dass es eine echte Möglichkeit ist, zwei vorkonfigurierte Ersatzteile in einer Box zu haben, die zum Austausch bereit ist.
Natürlich, wenn Sie mehr Neunen wollen, müssen Sie mehr Geld ausgeben, aber ich denke, dass die Schönheit des iSCSI-, ESXi- und Standard-Gigabit-Ethernet-Kits darin besteht, dass Sie Ihr Gewicht in Bezug auf Ausfallsicherheit und Leistung übertreffen können.
quelle
Alles hat seine Vor- und Nachteile: SLA, Anwendungslast und Skalierung. Wenn Sie also Hochleistungsspeicher für eine kleine Bereitstellung (1-5 Hosts) benötigen, können Sie dies wahrscheinlich mit NFS erreichen (ich habe tatsächlich einmal eine bessere Latenz mit NFS als mit SAN mit RAM-Datenträgern erreicht). Wenn Sie das jetzt skalieren, werden Sie feststellen, dass die Kosten für die Replikation Ihres Setups in großem Umfang mit einem netten SAN vergleichbar sind, was FC zur einzig logischen Option macht ... Meistens verwende ich Kombinationen für verschiedene Dienste (Apps) , DBs, Backups, Archive) keine einzige Plattform zur Kostenoptimierung, je nach Bedarf.
quelle