Es gab mehrere Fragen im Zusammenhang mit der Bereitstellung von Backups, die meisten waren jedoch entweder zu spezifisch, für den Heimgebrauch bestimmt oder Windows-basiert.
Was ich gerne hören würde:
- Wie stellen Sie sicher, dass alle Ihre Linux-Server ordnungsgemäß gesichert werden?
- Wie oft sichern Sie Ihre Server?
- Was sichern Sie, abgesehen von den offensichtlichen / Home-Verzeichnissen?
- Wie stellen Sie sicher, dass Backups inkrementell und dennoch einfach wiederherzustellen sind?
Besonders die letzte Frage hat mich beunruhigt. Das Komprimieren von Backups in Tarballs funktioniert einwandfrei, verursacht jedoch ein ernstes Leistungsproblem, wenn ich plötzlich ein Backup wiederherstellen muss. Wenn Sie die Sicherungen jedoch nicht komprimieren und mit einem anderen Server synchronisieren, besteht das ernsthafte Risiko, dass inkonsistente Benutzerberechtigungen erstellt werden.
Welche Tools helfen Ihnen dabei, dies so einfach wie möglich zu gestalten, und was ist Ihr bevorzugter Ansatz in dieser Angelegenheit?
quelle
/etc
,/var
und/home
. Alles andere kann von dort aus neu erstellt werden.quelle
Ich habe endlich einen RAID6-Server zusammen mit rsnapshot eingerichtet, der rsync und Hardlinks zwischen verschiedenen Sicherungen verwendet. Dies spart Platz, macht aber die Wiederherstellung zu einem einfachen Kopiervorgang.
Ich laufe jede Nacht inkrementell, drehe die letzten 14 Schnappschüsse, sammle jede Nacht einen Satz von Schnappschüssen alle zwei Wochen und dann vierteljährliche Sätze und jährliche Sätze. Ich sichere alles auf meinen Festplatten.
Für die Offline-Sicherung habe ich gerade einen SAS LTO4-Bandstreamer gekauft, den ich gerade erhalten, aber noch nicht installiert habe. Ich plane jedoch, von Zeit zu Zeit einige der rsnapshot-Sicherungen zu speichern und die Bänder in meinem Büro aufzubewahren.
quelle
Wie stellen Sie sicher, dass alle Ihre Linux-Server ordnungsgemäß gesichert werden?
Wir führen jeden Abend rdiff-backup durch. Wir haben ein Skript in / usr / local / bin, das cron jede Nacht ausführt.
Um sicherzustellen, dass es funktioniert hat, verwenden wir Nagios, um zu überprüfen, ob die Kopie von / var / log / messages niemals älter als 48 Stunden ist. Wenn dies der Fall ist, können wir dies auf der Nagios-Webseite und in den E-Mails sehen, die Nagios an Administratoren senden.
Wie oft sichern Sie Ihre Server?
Jede Nacht.
Was sichern Sie, abgesehen von den offensichtlichen / Home-Verzeichnissen?
Wir sichern alles, bis auf ein paar ausgeschlossene Bits - / tmp / proc / sys und einige Dinge in / var / log /
Wie stellen Sie sicher, dass Backups inkrementell und dennoch einfach wiederherzustellen sind?
Wir verwenden rdiff-backup (siehe auch dieses Tutorial ). rdiff-backup erstellt ein Verzeichnis mit der vollständigen aktuellen Kopie von allem, was Sie kopieren, behält jedoch die Unterschiede zu früheren Sicherungen bei, sodass Sie Dateien so weit wie möglich wiederherstellen können. Wahrscheinlich möchten Sie die alten Diffs gelegentlich löschen (um Platz zu sparen), und es gibt einen Befehl rdiff-backup, der wöchentlich von cron ausgeführt werden kann.
quelle
Ich habe einen Cron-Job auf den Servern, auf denen rdiff-backup ausgeführt wird.
/ etc / wird gesichert, / home / und jedes andere Verzeichnis, das sicherstellt, dass ich ein anderes Verzeichnis so schnell wie möglich zum Laufen bringe, wenn es ausfällt.
Alles ist an einem zentralen Ort versammelt und all dies wird jede Nacht auf Band aufgenommen . Das Klebeband wird am nächsten Morgen abgeholt und 2 Wochen lang (außerhalb des Standorts) entfernt, bevor es wieder in Rotation versetzt wird.
Für die ganz entscheidenden Dinge habe ich einen Live-Ersatzlauf. Wie in: Ein zweiter Server, der dort sitzt und im Leerlauf ist (und im Grunde mein Spielzeug ist), aber alle Dateien / Dienste des ersten hat. Wenn der erste ausfällt, kann dieser blitzschnell übernehmen. Alles, was getan werden muss, ist einen DNS-Eintrag zu ändern.
quelle
Ich führe Duplizität auf ihnen aus und sichere auf Amazon S3.
Ich mache vierteljährlich und nachts eine vollständige Sicherung. Dies dient hauptsächlich dazu, die Lagerkosten bei S3 zu senken.
/ home, / etc und / var. Ich führe eine Debian-Box aus, damit ich auch jede Nacht ein 'dpkg --get-selections> /etc/debian.pkgs' mache, damit ich verfolgen kann, was installiert ist.
Duplizität macht das gut. Ich teste es gelegentlich, indem ich irgendwann in der Geschichte eine Wiederherstellung durchführe.
quelle
Ich habe dies selbst untersucht und da ich automatische Offsite-Backups für einen Speicherdienst möchte, scheinen Amazon Glacier und Backblaze B2 derzeit gute Optionen zu sein (Backblaze ist derzeit die billigere).
Wenn man sich die Clients ansieht, die diese Dienste unterstützen, und die Funktionen, die Sie erwarten (Verschlüsselung, Deduplizierung, inkrementelle Sicherungen), scheint es zwei Optionen zu geben, die unter Linux funktionieren:
quelle