Ich habe verzweifelt versucht, einen Weg zu finden, um mein AWS EFS-Dateisystem auf S3 zu sichern, kann aber scheinbar keinen finden.
Es gibt mehrere EC2-Instanzen, die alle Zugriff auf das erwähnte EFS haben. Um den Datenverkehr zu reduzieren, habe ich bereits versucht, eine Lambda-Funktion zu starten, die SSHs an die EFS-Instanzen sendet und "aws s3 sync ..." ausführt. Leider scheint SSHing von Lambda Services keine gute produktionsreife Lösung zu sein.
Ich habe auch versucht, DataPipeline anzupassen, aber das Starten zusätzlicher Instanzen nur für Backups scheint ebenfalls ein Problem zu sein.
Gibt es nicht eine einfache Möglichkeit, EFS in S3 zu sichern?
Anregungen geschätzt.
Beachten Sie, dass Attic in dem von Ihnen angegebenen Intervall ausgeführt wird, jedoch nur die von Ihnen angegebenen Prüfpunkte beibehalten. Beispielsweise haben Sie möglicherweise tägliche Sicherungen, die jedoch erst nach dem ersten Monat und nach dem ersten Jahr jährlich gespeichert werden. Aus diesem Grund werden Dateien aus dem Speicher gelöscht. Wenn Sie die Dateien nicht aus Ihrem Repository löschen, wird dies nicht schaden, aber Sie werden mehr Speicher als erforderlich verwenden. Aus diesem Grund ist eine Synchronisierung der Attic-Sicherungsdateien möglicherweise besser als eine Kopie.
quelle
Content-MD5
Upload-Header. Wenn S3 einen Upload mit einer Nutzlast empfängt, die nicht mit dieser übereinstimmt, weigert er sich geradezu Speichern Sie den Inhalt. Eine traurige Anzahl von Bibliotheken und Dienstprogrammen scheint sich damit einfach nicht zu beschäftigen, da es technisch "optional" ist.Empfohlen, AWS Life Cycle Hook zu verwenden. Diese Option bietet zuverlässige Steuerelemente (z. B. Zeitüberschreitung usw.). https://docs.aws.amazon.com/autoscaling/ec2/userguide/lifecycle-hooks.html
quelle