Ich muss häufig eine Sicherungskopie einer Gruppe von Dateien mit vielen Unterordnern erstellen, die mehrere große, identische Dateien enthalten.
Gibt es ein Komprimierungsschema (.zip, .7z usw.), das dies automatisch erkennt und identische Dateien nicht mehr als einmal speichert?
backup
compression
Warpin
quelle
quelle
incremental backup
.Antworten:
Ja, es ist möglich: /superuser/479074/why-doesnt-gzip-compression-eliminate-duplicate-chunks-of-data
Hier ist ein Beispiel, das ich mir ausgedacht habe:
quelle
Ich habe das auch gerade durchgemacht.
Wenn Sie Ihre Dateien zu einem Tar Ball komprimieren, erkennt die LZMA-Komprimierung von 7z möglicherweise die Duplikate, wenn sie im Tar Ball zu weit voneinander entfernt sind (dies hängt von der Wörterbuchgröße und einigen anderen Faktoren ab).
7z hat ein WIM-Format, das Duplikate sammelt, dann können Sie dort die normale LZMA-Komprimierung verwenden. Windows-Befehlszeilenbeispiel:
Es funktioniert gut, probieren Sie es aus.
quelle
Ich schlage 3 Optionen vor, die ich ausprobiert habe (unter Windows):
Ich hatte 10 Ordner mit verschiedenen Versionen einer Website (mit Dateien wie .php , .html , .js , .css , .jpeg , .sql usw.) mit einer Gesamtgröße von 1 GB ( durchschnittlich 100 MB pro Ordner ). Während die Standard-7zip- oder WinRar-Komprimierung eine Datei von ungefähr 400/500 MB ergab, ergaben diese Optionen eine Datei von (1) 80 MB , (2) 100 MB bzw. (3) 170 MB.
quelle