Mit der Entwicklung von hyperkonvergenten Systemen können wir andere Technologien als RAID für den Umgang mit verteiltem Speicher sehen (wie z. B. Ceph oder VSAN oder verteilter Speicher wie in Nutanix).
Aber gibt es Open-Source-Technologie-Derivate aus dem Objektspeicher, die ich auf einem einzelnen Server mit viel großem Datenträger verwenden kann, sagen wir ein Dutzend 12To-SATA-Datenträger, die die Datensicherheit gewährleisten, jedoch ohne den Nachteil einer enormen Wiederherstellungszeit beim Ersetzen eines Platte. Dynamic Disk Pool ist also eine Form von De-Clustered-RAID, das auf Blockebene wie iscsi oder auf Dateisystemebene wie zfs oder brtrfs verwendet werden kann.
Ich möchte eine ähnliche Funktion wie ein SYNOLOGY-Schacht (NFS, iscsi-Ziel, SMB) bereitstellen, jedoch ohne RAID für den Blockspeicher.
Vielen Dank für Ihre Angaben.
quelle
Antworten:
Für ein einzelnes System würde ich wirklich empfehlen, bei bekannten und ausführenden RAID-Arrays zu bleiben. Objektspeicher haben im Vergleich zum klassischen Block- / Dateizugriff erhebliche Leistungseinbußen. Wenn Sie nicht skalieren, verlieren Sie viele ihrer Vorteile.
Abgesehen von klassischem RAID haben Sie jedoch folgende Möglichkeiten:
keine Angst , die einen Replikationsansatz auf Dateiebene anstelle eines auf Blockebene verwendet
glusterfs , Konfigurieren eines anderen Bausteins für jede Festplatte und Anwenden einer
replica 2
Richtliniezfs, das, obwohl blockbasiert, nicht 100% identisch mit klassischem Software- oder Hardware-RAID ist
Beachten Sie auch , dass Objektspeicher ist nicht niedriger garantieren Wiederherstellungszeit; Im Gegenteil, es bewältigt lange Neuerstellungen, indem es strengere Replikationsrichtlinien garantiert (dh
replica 3
über verschiedene Racks hinweg).quelle
zfs set checksum=off
, aber ich kann mir nicht vorstellen, warum jemand ZFS ausführen und dies tun würde.) Selbst ohne Speicherredundanz kann dies ein großer Vorteil sein, da Sie genau wissen, welcher Ihrer Chefs , wichtige Tabellenkalkulationen ... müssen aus dem Backup wiederhergestellt werden."Das gewährleistet die Datensicherheit, jedoch ohne den Nachteil einer enormen Wiederherstellungszeit beim Ersetzen einer Festplatte."
Sie täuschen sich darin, dass Sie glauben, Software könne die Realität verändern - also die Physik. Die großen Wiederherstellungszeiten sind im Wesentlichen darauf zurückzuführen, dass eine vollständige Disc geschrieben werden muss. Wenn Sie 2 TB Informationen auf eine Disc schreiben, dauert dies lange, da sich die Discs so verhalten. Insbesondere, wenn Sie mehrere Discs lesen MÜSSEN, um die fehlenden Daten im ersten Schritt zu erhalten (Raid 5,6 analog). Es gibt Details darüber, wie "dumm" Software sein kann (dh Zeit zusätzlich zum physischen Minimum hinzufügen), aber das Minimum ist bereits Stunden, wenn Sie von langsamen großen SATA-Discs sprechen.
Alle anderen Technologien, die Sie erwähnen, müssen sich an dieselbe problematische Zeit halten, die Sie vermeiden möchten, weil - Physik.
Und es hilft nicht, dass Ihr Clusternetzwerk - wenn Sie eine Replikation des Netzwerks durchführen - 10 g oder weniger verwendet (was der wahrscheinlichste Fall ist), anstatt 40 g oder 100 g zu verwenden.
quelle