Ich verwende derzeit ein Duplizitätsskript, um meinen 110G / 2T CentOS-Server auf einem 2T-SFTP-Server zu sichern.
Da 4 Tage vergangen sind, hat die Duplizität nur 90G gesichert. Das ist kein Problem. Das Hauptproblem ist; Ich habe fast 600G Cache, den die Duplizität unter "/user/.cache/duplicity" generiert hat. Diese Größe ist nicht normal. Was soll ich also tun? Wird die Duplizität diese Cache-Dateien und -Ordner verkleinern oder entfernen, wenn die Aufgabe abgeschlossen ist? Wird Duplicity auch den Cache sichern (ich habe den Ordner / user nicht ausgeschlossen)?
Zusätzliche Informationen: Ich verwende den Hetzner-Server und dies ist das Sicherungsskript, das ich verwende: https://wiki.hetzner.de/index.php/Duplicity_Script/en
Außerdem habe ich nur die Verzeichnisse proc, sys und dev aus dem Stammverzeichnis ausgeschlossen (und alles andere ausgehend vom Stammverzeichnis gesichert, weil ich eine vollständige Serversicherung wollte).
Antworten:
Laut Mailingliste
Im Übrigen scheint es ein langjähriger Fehler zu sein .
Auf dem Debian-Bug-Tracker empfehlen sie dies
Warnung : Die vorgeschlagene
--extra-clean
Option ist gefährlich und kann Sie sehr hart beißen. Backups können mit den üblichen Mitteln nicht wiederhergestellt werden .quelle
Als wir anfingen, sehr alte Backups remote zu bereinigen (S3), lösten Duply-Befehle sehr alte lokale Metadaten automatisch.
Das heißt, wir speichern Backups erst seit x Monaten. Die Größe des lokalen Metadaten-Cache wurde entsprechend verringert.
quelle