Vorteile der Thick-Bereitstellung von Speicher gegenüber der Thin-Bereitstellung mit virtuellen Maschinen

9

Beim Erstellen von VMs verwende ich normalerweise die Thin-Bereitstellung von Speicherplatz: Sie bietet viel Flexibilität und scheint schneller zu erstellen zu sein.

Der einzige potenzielle eindeutige Vorteil, den ich sehen kann, besteht darin, sicherzustellen, dass einer VM nicht versehentlich der verfügbare Speicherplatz auf der zugrunde liegenden Speicherinfrastruktur ausgeht - gibt es andere?

Labyrinth
quelle
scheint ein Duplikat von serverfault.com/questions/279773/… zu sein --- vielleicht sollten die beiden zusammengeführt werden
mdpc
@mdpc - Ich habe das gesehen, als ich mich darauf vorbereitete, dieses zu fragen - es ist verwandt, aber ich denke, das ist genug anders, um sich selbst zu rechtfertigen :)
Warren

Antworten:

5

Dünne bereitgestellte Festplatten können nicht verkleinert werden. Sobald Sie alle Blöcke zugewiesen haben, ist es soweit.

Wenn Sie kein Schnellformat ausführen, füllt Windows tatsächlich die gesamte Thin Provisioning-Festplatte.

Es kann auch eine Leistungsstrafe geben, aber ich bin mir nicht 100% sicher und sollte getestet werden. Ich weiß, dass dies bei einigen hostbasierten Hypervisoren der Fall war.

Soßengesicht
quelle
4
Sie können eine Thick-VM dünn bereitstellen, wenn Sie eine Speicher-VMotion ausführen.
Jftuga
3

Andere nicht erwähnte Schuldige:

  • Thin Provisioning-Laufwerke können sehr leicht stark fragmentiert werden. Wenn Sie das Hosting-Gerät nicht defragmentieren können, kann dies die Leistung erheblich beeinträchtigen.
  • Wenn Ihnen jemals der reale Speicherplatz auf einem Thin Provisioning-Speicher ausgeht, auf dem Sie zu viel Speicherplatz zugewiesen haben, kann jeder Schreibvorgang zu einem katastrophalen Fehler auf einem oder mehreren VM-Laufwerken führen, der normalerweise nicht mehr repariert werden kann. Daher sollten Sie Ihre tatsächliche Festplattennutzung besser überwachen den Speicherhost sorgfältig.
Wazoox
quelle
2

Sparse-Festplatten haben einen zusätzlichen Leistungsaufwand, da die Überwachung ihrer Größe und die Erweiterung bei Bedarf Ressourcen beansprucht. Eigentlich nicht zu viel, aber es hängt von den verfügbaren Ressourcen ab. Bei einigen Setups spielt der Speicherplatz keine Rolle, daher wird alles vorab zugewiesen, um die Leistung zu verbessern. Bei anderen Setups gibt es genügend CPU-Zyklen und IOPS. Der Speicherplatz ist jedoch begrenzt (insbesondere bei Verwendung von SSD-basiertem Speicher). Daher ist es vorzuziehen, nur wenig Speicherplatz zu verwenden Festplatten

dyasny
quelle
3
Tatsächlich ist der Performance-Hit hauptsächlich eine Fragmentierung. Bei der Initialisierung eines Laufwerks sind alle seine Blöcke zusammenhängend, während sie bei Thin Provisioning stark fragmentiert werden können. "Größe überwachen und erweitern" kommt einfach nicht vor; Sparse-Dateien sind eigentlich eine "kostenlose" Dateisystemfunktion und wachsen einfach automatisch, wenn ihnen Blöcke zugewiesen werden.
Wazoox
1
Das ist wahr, wenn Sie ein Dateisystem verwenden (was ein eigenständiges Leistungsproblem sein kann, es sei denn, Sie gelangen in direktes E / A-Land, was auch nicht immer gut ist)
dyasny
2

Die Hauptvorteile von Thick-Provisioning sind:

  • Bei der Festplattenzuweisung werden eher zusammenhängende Blöcke verwendet, sodass die physischen Platten weniger fragmentiert werden
  • Der physische Speicherplatz wird sofort zugewiesen, sodass Sie nicht in die Falle einer Überversorgung geraten.

Die Hauptnachteile sind:

  • Die Bereitstellung von Datenträgern dauert länger, da dieser Speicherplatz vollständig beansprucht werden muss
  • Sogar die von einer bestimmten VM nicht genutzte Kapazität wird bei der Zuweisung aufgebraucht.
gWaldo
quelle