Ich möchte Amazon S3 zum Sichern unserer ~ 100-GB-Server-Images verwenden (erstellt mit den Acronis-Sicherungstools).
Offensichtlich wäre das Hochladen auf S3 jede Nacht in Bezug auf Bandbreite und Kosten teuer. Ich überlege, ob ich rsync mit S3 verwenden soll, und bin auf s3rsync gestoßen. Ich habe mich nur gefragt, ob jemand Erfahrung mit diesem oder einem anderen Dienstprogramm hat.
Antworten:
Ich bin kürzlich über diesen Thread auf Google gestolpert und es sieht so aus, als ob sich die Landschaft ein wenig verändert hat, seitdem die Frage gestellt wurde. Die meisten der hier vorgeschlagenen Lösungen werden entweder nicht mehr gewartet oder sind kommerziell geworden.
Nach einigen Frustrationen bei der Arbeit mit FUSE und einigen anderen Lösungen entschied ich mich, einen eigenen Befehlszeilen-Rsync-Klon für S3 und Google Storage mit Python zu schreiben.
Sie können das Projekt auf GitHub auschecken: http://github.com/seedifferently/boto_rsync
Ein weiteres Projekt, auf das ich kürzlich aufmerksam gemacht wurde, ist "Duplizität". Es sieht etwas aufwändiger aus und ist hier zu finden: http://duplicity.nongnu.org/
Hoffe das hilft.
AKTUALISIEREN
Das Python-Team von AWS hat intensiv an einem Boto-basierten CLI-Projekt für seine Cloud-Services gearbeitet. Unter den enthaltenen Tools befindet sich eine Schnittstelle für S3, die die meisten Funktionen von boto-rsync dupliziert (und in vielerlei Hinsicht ersetzt):
https://github.com/aws/aws-cli
Insbesondere kann der
sync
Befehl so konfiguriert werden, dass er fast genau wie rsync funktioniert:http://docs.aws.amazon.com/cli/latest/reference/s3/sync.html
quelle
Ich hatte auch viel Glück mit S3cmd und S3sync , die beide kostenlos sind.
quelle
Abhängig davon, wie Ihre Acronis-Bilder erstellt werden, bin ich mir nicht sicher, ob Sie mit Rsync Bandbreite sparen können. Acronis-Bilder sind einzelne Dateien, sodass rsync sie nicht lesen kann, um nur das zu sichern, was sich geändert hat. Sie sind sich auch nicht sicher, welche Art von Server-Images Sie erstellen, aber da Sie 100 GB angegeben haben, gehe ich davon aus, dass sie voll sind? Ein inkrementelles Bild würde die nächtliche Bildgröße erheblich reduzieren und so Bandbreite sparen. Sie können die Bilder auch an einem anderen Ort als S3 speichern, z. B. auf einem Bandmedium, und diese außerhalb des Standorts speichern.
quelle
Ich habe S3rsync noch nie ausprobiert.
Ich verwende Duplicity für unsere Offsite-Backups. Es unterstützt inkrementelle Sicherungen auf S3, spart jedoch aufgrund des Amazon S3-Speicherprotokolls, bei dem Änderungen an Dateien Sie zwingen, die gesamte neue Datei erneut hochzuladen, nicht wirklich Bandbreite. Auf jeden Fall werden bei Duplicity nur die Unterschiede zum letzten inkrementellen Backup hochgeladen.
Mit Duplicity müssen Sie nicht wie mit S3sync über einen anderen Server gehen. Wenn Sie jedoch Ihre Daten verschlüsseln, sollte es sich lohnen, S3sync einmal auszuprobieren.
quelle
S3 verfügt außerdem über einen Add-On-Service namens AWS Import / Export, mit dem Sie ein USB-Laufwerk mit Ihrem ursprünglichen 100-GB-Datensatz an diese senden können, das sie mithilfe einiger Back-End-Tools in ihren Rechenzentren in die S3-Cloud laden. Sobald Ihre 100 GB verfügbar sind, können Sie jede Nacht differenzielle Sicherungen durchführen, um alle Änderungen zu sichern.
Die Website ist http://aws.amazon.com/importexport/
Wenn der Großteil Ihrer Daten relativ statisch ist, ist dies eine gute Option. Wenn sich die gesamten 100 GB Daten täglich ändern, hilft dies Ihnen nicht viel.
quelle
Sie können Minio Client aka "mc" versuchen . mc bietet minimale Tools für die Arbeit mit Amazon S3-kompatiblen Cloud-Speichern und Dateisystemen.
mc implementiert die folgenden Befehle
Sie können den Befehl mirror verwenden, um Ihre Operation auszuführen. "localdir" ist das lokale Verzeichnis & S3 [Alias für Amazon S3] und der Name "remoteDir" Ihres Buckets auf S3.
Sie können auch einen Cronjob dafür schreiben. Auch im Falle eines Netzwerkverstoßes können Sie "$ mc session" verwenden, um den Upload von diesem bestimmten Zeitpunkt an neu zu starten.
PS: Ich trage zum Minio-Projekt bei und würde gerne Ihr Feedback und Ihren Beitrag erhalten. Ich hoffe es hilft.
quelle
Die neue Jungle Disk Server Edition (Beta) könnte für Sie nützlich sein. Die Deduplizierung erfolgt auf Blockebene. Wenn Ihre Acronis-Bilder also etwas gemeinsam haben, wird der Umfang der zu sichernden Daten erheblich reduziert. Die Funktionen eignen sich perfekt für Server-Backups. Lesen Sie die Versionshinweise.
Ich habe die Beta zwei Wochen lang getestet und bin, abgesehen von einigen kleinen Problemen mit der Benutzeroberfläche, von denen ich sicher bin, dass sie im Finale behoben werden, sehr gespannt auf das Produkt.
quelle