Wie kann ein verschlüsseltes Core Storage-Volume außerhalb des Standorts gesichert werden?

0

Bei einer Festplatte mit einem verschlüsselten Core Storage-Volume (aber nicht dem Entschlüsselungskennwort, da der Sicherungsdienst keinen Zugriff darauf haben sollte), wie würde man vorgehen, um das Backup so zu erstellen, dass es an einen Cloud-Speicheranbieter gesendet werden kann (wie Amazon S3) und für inkrementelle Sicherungen in der Zukunft (weil Sie nicht jeden Tag eine volle 1 TB übertragen möchten, wenn sich nur ein paar Blöcke geändert haben)?

Thilo
quelle

Antworten:

1

Vorgeschlagene Lösung:

Sie haben eine Amazon EC2-Instanz mit einem Speicher für elastische Blöcke, der groß genug ist, um das gesamte Image zu speichern, das Sie sichern möchten:

backup-host.yourdomain.com:
/mnt/EBS/my-desktop-backup/coreimage.dmg
/mnt/EBS/my-laptop-backup/coreimage.dmg

Wo:

/dev/ebs-disk-001 -> /mnt/EBS/my-desktop-backup
/dev/ebs-disk-002 -> /mnt/EBS/my-laptop-backup
etc.
etc.

oder

backup-host.yourdomain.com:
/mnt/EBS/my-desktop-backup_coreimage.dmg
/mnt/EBS/my-laptop-backup_coreimage.dmg

Wo:

/dev/ebs-disk-001 -> /mnt/EBS

Die erste Sicherung würde eine Weile dauern, aber wenn Sie die Synchronisierung mit rsync durchführen, kann das Remote-Image möglicherweise die Änderungen Ihres lokalen Images nachholen.

Sobald es eingeholt ist, können Sie auf Amazon-Seite einen EBS-Snapshot für das EBS-Volume mit Ihrem verschlüsselten Image starten.

Spülen und wiederholen Sie den Vorgang für jeden Sicherungszeitraum und jeden Snapshot, den Sie auf dem Remote-Server sichern möchten. Berücksichtigen Sie dabei die folgenden Punkte / Anforderungen:

  • Das verschlüsselte Image muss abgehängt werden.
  • Die Remote-Image-Kopie muss zu 100% mit dem nicht bereitgestellten lokalen Image synchronisiert sein.
  • Der Snapshot muss mit der Remote-Synchronisierung des EBS-Volumes durchgeführt werden, die Dateisystempuffer müssen geleert werden und es stehen keine Änderungen an.

Mit dieser Funktion können Sie die inkrementellen Sicherungen mithilfe der Cloud-Technologie von Amazon durchführen.

S3 weist für diesen speziellen Zweck einige schwerwiegende Einschränkungen auf, die nicht Ihren Anforderungen entsprechen.

Wenn die EC2-Instanz vollständig von EBS unterstützt wird, kann sie heruntergefahren werden, wenn Sie keine Remote-Synchronisierung durchführen. Dh, wenn Ihr Backup startet, können Sie die Instanz über die EC2-API von Amazon starten und den dynamischen Namen oder die dynamische IP-Adresse abrufen. Sobald es bestätigt, dass es aktiv ist, kann es das rsync-Backup starten. Anschließend kann das Remote-Image heruntergefahren und eine Amazon EBS-Volume-Snapshot-Aktion gestartet werden.

Bearbeiten:

rsync unterscheidet Chunk- / Block-Level für größere Dateien. Sie können die Größe des Blockdifferentials angeben:

--block-size=SIZE

Sie können auch den Datenstrom angeben, der an den Remote-Server gesendet wird, um ihn zu komprimieren und so Datenverkehr zu sparen.

Vorsichtsmaßnahmen zu S3 vs EBS:

Sofern die von Ihnen verwendete Lösung nicht die Aufteilung der einzelnen großen Datei in Segmente und deren paralleles Senden unterstützt, drosselt Amazon S3 die Daten, die nach einer bestimmten Größe gesendet werden, auf unter 400 KB / s.

Ich verwende Rsync-Differenzialsicherungen auf meinen Servern für S3 als komprimierte Tarballs. Sogar bei Tarball-Größen von ungefähr 500 MB wird S3 drosseln. Um dies zu umgehen, müssen Sie die zu sendende Datei in Teile aufteilen. Andernfalls wird die Sicherung auf S3 für immer dauern.

Während eine EC2-Instanz mit EBS-Volumes schneller ist und keine Aufteilung von Dateien erfordert, vereinfacht dies die Sicherung und Wiederherstellung.

Wing Tang Wong
quelle
1
Rsync führt also Chunked Diffs durch und lädt nur die Teile hoch, die sich geändert haben.
Thilo
@Thilo Ja, das ist einer der Hauptvorteile von rsync. Vielleicht möchten Sie auch Arq oder eine der anderen Backup-Lösungen für S3 ausprobieren.
Nohillside
@patrix: Ja, ich interessiere mich sehr für Arq. Ich konnte jedoch keine Dokumentation darüber finden, wie große Dateien verarbeitet werden, die sich jedes Mal nur geringfügig ändern.
Thilo
@Thilo Im zweiten Absatz unter "Wayback Machine" auf haystacksoftware.com/arq : "Nur die Änderungen werden für jedes Backup hochgeladen, wodurch die Netzwerk- und Speichernutzung minimiert wird." Ich stimme jedoch zu, dass Änderungen auch die Dateiebene betreffen können. Vielleicht direkt ihre Unterstützung fragen? Und lassen Sie uns die Diskussion hier jetzt beenden, bevor ein Moderator einspringt :-) Pingen Sie mich bei Bedarf im Chat an.
Nohillside
Wie in meiner Antwort erwähnt, würde ich S3 empfehlen, da es sich um ein Backup-Backend handelt. Es hat mehrere Nachteile, vor allem, wenn Sie Rsync / Block-Diffs ausführen möchten. Ich werde auf die Antwort eingehen. Die ARQ-Software sieht interessant aus. Aber ich dachte, die Frage wäre, wie man ein verschlüsseltes Dateisystem in verschlüsselter Form und nicht in einzelnen Dateien sichert.
Wing Tang Wong