Ich bin derzeit ein ZFS - Partition exportieren mit dedup=on
Verwendung ubuntu-zfs
und netatalk
. Time-Machine besteht jedoch darauf, ein Sparsebundle darauf zu erstellen, und ich habe mich gefragt, ob dies Auswirkungen auf die Deduplizierung haben würde, da das Konzept der "Dateien" verschwindet und die Blockausrichtung wahrscheinlich auch nicht großartig wäre. .
PS Meine ganze Idee, Dedup zu verwenden, ist, dass ich ein paar Macbooks am selben Ort sichern kann und viele ihrer Dateien gleich sind.
Nachtrag: Es scheint, dass die Ausrichtung auf Blockebene fehlschlägt. Hier ist meine Erfahrung:
- Zeitmaschinenkopien von zwei verschiedenen Macbooks mit vielen doppelten Daten (insgesamt 200 GB)
- CCC die beiden Macbooks zu zwei spärlichen Bildern.
Deduplizierungsfaktor? 1,01x
Irgendwelche Ideen zum Einrichten von ZFS-Dedup für die korrekte Arbeit mit Zeitmaschinen-Backups? Sollte ich nach anderen Backup-Alternativen (mit Dedup) suchen?
Antworten:
Die Deduplizierung in ZFS erfolgt auf Blockebene und hängt daher nicht vom Dateikonzept ab. Die Deduplizierung kann nur besiegt werden, wenn der Versatz einer Datei innerhalb des Sparsebundles nicht immer dem Modulo der Blockgröße entspricht. Da ZFS variable Blockgrößen verwenden kann, die größer als die Blockgröße des HFS + -Dateisystems im Sparsebundle sind, kann die korrekte Ausrichtung nicht garantiert werden, es wird jedoch auch nicht garantiert, dass die Deduplizierung fehlschlägt.
Wenn Sie sich Gedanken über den Speicherplatz machen, möchten Sie möglicherweise auch die Komprimierung für Ihren ZFS-Pool aktivieren. Es verursacht zusätzlichen CPU-Overhead, kann jedoch den effektiven Festplattendurchsatz erhöhen.
quelle