Standardmäßig erzwingen die meisten Linux-Dateisysteme nach 180 Tagen oder einer bestimmten Anzahl von Bereitstellungen eine Dateisystemprüfung (fsck). Natürlich kann dies mit tune2fs -c 0 -i 0 auf ext2 oder ext3 ausgeschaltet werden.
Auf kleinen Dateisystemen ist diese Überprüfung lediglich eine Unannehmlichkeit. Bei größeren Dateisystemen kann diese Überprüfung jedoch Stunden für Stunden dauern. Wenn Ihre Benutzer in Bezug auf ihre Produktivität von diesem Dateisystem abhängig sind und sagen, dass es ihre Home-Verzeichnisse über NFS bedient, können Sie die geplante Prüfung des Dateisystems deaktivieren?
Ich stelle diese Frage, weil es momentan 2:15 Uhr ist und ich auf einen sehr langen fsck (ext3) warte!
Die voreingestellte fsck-Zeit von 180 Tagen ist eine Problemumgehung für den Konstruktionsfehler, dass ext3 keine Online-Konsistenzprüfung unterstützt. Die wirkliche Lösung besteht darin, ein Dateisystem zu finden, das dies unterstützt. Ich weiß nicht, ob es ein ausgereiftes Dateisystem gibt. Es ist eine echte Tragödie. Vielleicht rettet uns btrfs eines Tages.
Ich habe auf das Problem der überraschenden mehrstündigen Ausfallzeit von fsck reagiert, indem ich im Rahmen der Standardwartung geplante Neustarts mit einem vollständigen fsck durchführte. Dies ist besser, als während der Produktionsstunden auf geringfügige Beschädigungen zu stoßen und diese zu einem echten Ausfall werden zu lassen.
Ein großer Teil des Problems ist, dass ext3 ein unangemessen langsames fsck hat. Obwohl xfs ein viel schnelleres fsck hat, verwendet es zu viel Speicher für Distributionen, um xfs auf großen Dateisystemen standardmäßig zu fördern. Auf den meisten Systemen ist dies jedoch kein Problem. Ein Wechsel zu xfs würde zumindest eine einigermaßen schnelle fsck ermöglichen. Dies kann dazu führen, dass die Ausführung von fsck im Rahmen der normalen Wartung einfacher zu planen ist.
Wenn Sie RedHat ausführen und die Verwendung von xfs in Betracht ziehen, müssen Sie sich darüber im Klaren sein, wie stark diese von der Verwendung von xfs abhalten und dass es wahrscheinlich nur wenige Leute gibt, die xfs auf dem Kernel verwenden, den Sie ausführen.
Ich verstehe, dass das ext4-Projekt das Ziel hat, die fsck-Leistung zumindest etwas zu verbessern.
"Ein Wechsel zu xfs würde zumindest eine einigermaßen schnelle fsck ermöglichen" ... Habe ich etwas verpasst ?
Justin ᚅᚔᚈᚄᚒᚔ
4
Ich würde sagen, dass dies nur ein weiterer Grund ist, weshalb Produktionsserver nicht alleine laufen sollten und immer entweder ein Hot / Cold-Backup haben oder an einem Zwei-Knoten-Cluster teilnehmen sollten. In diesen Tagen der Virtualisierung können Sie problemlos einen physischen Hauptserver und einen virtuellen Server, der nur alle X Tage eine Kopie des physischen Servers ist, übernehmen.
Abgesehen von dieser nicht so hilfreichen Antwort würde ich sagen, dass Sie die Wichtigkeit Ihrer Daten ausbalancieren sollten ... Wenn dies nur ein Clusterknoten ist, überspringen Sie ihn. Wenn dies der nicht gesicherte Webserver eines Clients ist, möchten Sie möglicherweise das nächste Mal im Voraus planen :-)
Hängt davon ab. Zum Beispiel war ein Server für die routinemäßige Wartung ausgefallen, auf dem ein QMail-Stack ausgeführt wurde. QMail erstellt und löscht im Laufe der Zeit viele Dateien und war ein stark ausgelasteter Mailserver. Das fsck hat rund 36 Stunden gedauert. Es ist nicht so, als hätten wir eine Menge Leistung gespart, aber letztendlich könnte man sagen, dass das Dateisystem gesünder ist. War es das Chaos wirklich wert? Nicht. Beim. Alle.
Ich bin mir auch sicher, dass Sie das auch wissen, aber shutdown -f umgeht fsck beim Neustart.
Artem Russakovskii
Ja, im Nachhinein ist 20/20 so, oder? :)
f4nt
0
XFS ist interessant. Es ist eine immer konsistente FS. Es braucht kein fsck. Es wird keine Ausfallzeit aufgrund von fsck verursachen.
Aber es gibt noch ein anderes Problem. Sie benötigen einen RAID-Controller mit Unterstützung für den Umgang mit defekten Festplattenblöcken.
XFS verfügt nicht über die Funktion, fehlerhafte Blöcke auf die schwarze Liste zu setzen, wenn das Betriebssystem Informationen zu fehlerhaften Blöcken erhält und die Liste der fehlerhaften Festplattenblöcke voll ist.
ext2 / 3/4, fat, ntfs usw. (Offline-Test) können fehlerhafte Blöcke, aber kein XFS auf die schwarze Liste setzen.
Bei nicht für Unternehmen bestimmten Installationen ist XFS daher wahrscheinlich nicht geeignet. Ich verwende XFS mit der Linux-Software raid1 für Backup-Partitionen, bei denen der Inhalt aus vielen kleinen Dateien besteht, die sich im Laufe der Zeit kaum ändern.
Ich würde sagen, dass dies nur ein weiterer Grund ist, weshalb Produktionsserver nicht alleine laufen sollten und immer entweder ein Hot / Cold-Backup haben oder an einem Zwei-Knoten-Cluster teilnehmen sollten. In diesen Tagen der Virtualisierung können Sie problemlos einen physischen Hauptserver und einen virtuellen Server, der nur alle X Tage eine Kopie des physischen Servers ist, übernehmen.
Abgesehen von dieser nicht so hilfreichen Antwort würde ich sagen, dass Sie die Wichtigkeit Ihrer Daten ausbalancieren sollten ... Wenn dies nur ein Clusterknoten ist, überspringen Sie ihn. Wenn dies der nicht gesicherte Webserver eines Clients ist, möchten Sie möglicherweise das nächste Mal im Voraus planen :-)
quelle
Hängt davon ab. Zum Beispiel war ein Server für die routinemäßige Wartung ausgefallen, auf dem ein QMail-Stack ausgeführt wurde. QMail erstellt und löscht im Laufe der Zeit viele Dateien und war ein stark ausgelasteter Mailserver. Das fsck hat rund 36 Stunden gedauert. Es ist nicht so, als hätten wir eine Menge Leistung gespart, aber letztendlich könnte man sagen, dass das Dateisystem gesünder ist. War es das Chaos wirklich wert? Nicht. Beim. Alle.
quelle
XFS ist interessant. Es ist eine immer konsistente FS. Es braucht kein fsck. Es wird keine Ausfallzeit aufgrund von fsck verursachen.
Aber es gibt noch ein anderes Problem. Sie benötigen einen RAID-Controller mit Unterstützung für den Umgang mit defekten Festplattenblöcken.
XFS verfügt nicht über die Funktion, fehlerhafte Blöcke auf die schwarze Liste zu setzen, wenn das Betriebssystem Informationen zu fehlerhaften Blöcken erhält und die Liste der fehlerhaften Festplattenblöcke voll ist.
ext2 / 3/4, fat, ntfs usw. (Offline-Test) können fehlerhafte Blöcke, aber kein XFS auf die schwarze Liste setzen.
Bei nicht für Unternehmen bestimmten Installationen ist XFS daher wahrscheinlich nicht geeignet. Ich verwende XFS mit der Linux-Software raid1 für Backup-Partitionen, bei denen der Inhalt aus vielen kleinen Dateien besteht, die sich im Laufe der Zeit kaum ändern.
quelle