Habe ein paar Server und sie sind seit zwei Jahren nicht mehr defragmentiert. Gibt es einen Standard für den Prozentsatz, der vor der Defragmentierung fragmentiert werden soll?
Die Server sind Windows 2003.
quelle
Habe ein paar Server und sie sind seit zwei Jahren nicht mehr defragmentiert. Gibt es einen Standard für den Prozentsatz, der vor der Defragmentierung fragmentiert werden soll?
Die Server sind Windows 2003.
Tatsächlich defragmentiere ich niemals die Daten auf meinen Servern. Ich habe nicht genug von einem Leistungszuwachs beim Dienen von Dateien gesehen, damit es den Leistungseffekt der Zeit, die für die Defragmentierung erforderlich ist, wert ist. Tatsächlich werden die meisten Server die Defragmentierung erst dann wirklich beenden, wenn Sie sie für einige Tage offline schalten. Wenn Sie ein relativ modernes Dateisystem verwenden (es sei denn, Sie haben die Standardeinstellungen unter Windows 2003 geändert), sollte dies ohnehin keine Rolle spielen. Auch wenn Sie ein Striping-RAID ausführen, ist die Fragmentierung von Dateien kein Problem, da sie bereits auf viele Festplatten aufgeteilt sind.
Wenn ich einen Server habe, auf dem die Daten wirklich bereinigt und aus irgendeinem Grund defragmentiert werden sollen, ist es weitaus wahrscheinlicher, dass ich alle Daten auf Band speichere, das Laufwerk lösche und es wiederherstelle. Das wird sie alle in perfekten Blöcken aufschreiben.
Der einzige mir bekannte Anwendungsfall für die Defragmentierung eines Windows-Servers ist die Verbesserung der Sicherungsleistung. Backups sind fast die einzigen großen sequenziellen E / A-Vorgänge, die ein Dateiserver ausführt, und genau diese Art von E / A bemerkt die Fragmentierung. Die Art von E / A-Dateiservern, die von Benutzern aufgerufen werden, ist sehr zufällig. In diesem Fall kann eine Fragmentierung manchmal die Leistung verbessern.
In meinem alten Job hatten wir einen Dateiserver, den wir gerade auf neue Hardware migriert hatten. Unmittelbar nach der Migration liefen die Sicherungen in der Größenordnung von 450 MB / Minute (dies war wohl vor vielen Jahren der Fall). Zwei Jahre später sicherte dieser Server ungefähr 300 MB / Minute. Wir haben es dann zum ersten Mal defragmentiert und die Geschwindigkeit stieg wieder auf 450 MB / Minute.
Wenn Sie Probleme haben, alle Backups rechtzeitig fertig zu stellen, und es so aussieht, als ob der Server, der gesichert wird, der Flaschenhals ist, hilft möglicherweise eine Defragmentierung .
Der andere Anwendungsfall für die Defragmentierung ist ein Backup-to-Disk-System, bei dem das Archiv auf NTFS gespeichert ist. Das Sichern und Wiederherstellen auf diesen Datenträgern erfolgt vollständig sequentiell und stellt eine Fragmentierung fest. Wenn der zugrunde liegende Speicher jedoch ausreichend abstrahiert ist (z. B. ein HP EVA-Festplattenarray), bemerkt auch diese Art von E / A keine Fragmentierung.
Alles läuft darauf hinaus, dass massiv sequentielle E / A die Art von E / A ist, die die Fragmentierung am häufigsten bemerkt. Wenn dies nicht das E / A ist, um das Sie sich Sorgen machen, ist das Defragmentieren kein Problem.
quelle
Ich stimme zu, dass Sie dies oft nicht müssen und sollten, wenn die Leistung Ihr Ziel ist (die ständige Defragmentierung schadet mehr als nützt).
Wie bei jeder Regel gibt es jedoch einige Ausnahmen:
Wenn dies der Fall ist oder an einem Punkt, an dem nur noch sehr wenig Speicherplatz zur Verfügung steht (<15%), sollten Sie wahrscheinlich eine Defragmentierung durchführen, wenn genügend Zeit zur Verfügung steht. Selbst moderne Dateisysteme haben Probleme, eine Fragmentierung zu vermeiden, wenn nur wenige Sektoren zur Auswahl stehen.
Wenn Sie bestimmte Arten von Anwendungen ausführen, die eine unvermeidbare Fragmentierung verursachen, möchten Sie möglicherweise in ein serverspezifisches Defragmentierungsprogramm investieren (diese werden kontinuierlich im Hintergrund ausgeführt und defragmentieren, wenn / falls erforderlich). Die Art von Anwendung, die in einer Windows-Umgebung eine unvermeidbare Fragmentierung verursachen würde, ist die, die viel langsames Schreiben über mehrere Dateien hinweg ausführt (die robusteste vom Server entwickelte Software vermeidet dies, aber so etwas wie ein Desktop-Download-Manager, insbesondere einige bestimmte BitTorrent-Clients, weisen dies auf diese Art von aggressivem Fragmentierungsverhalten)
quelle
Ich habe Diskeeper in einem früheren Job auf den Servern ausgeführt und damit eine messbare Leistungsverbesserung sowohl auf Dateiservern als auch auf Anwendungsservern. Ich glaube nicht, dass wir in die Nähe ihrer veröffentlichten Statistiken gekommen sind, aber wir haben definitiv einige Vorteile gesehen.
Es wurde so eingestellt, dass es im Leerlauf und in festgelegten Zeitplänen defragmentiert wird, um die Auswirkungen mit einigen zusätzlichen Bits zu begrenzen, die beim Start ausgelöst wurden.
quelle
Ein wichtiges Werkzeug ist Smart Defrag von IOBit. Es defragmentiert im Hintergrund, wenn Ihr Computer inaktiv ist, und verfügt über Deep Optimize und andere Funktionen. Es scheint nützlich zu sein, sodass Sie es dort anbringen und sich nicht um die Defragmentierung kümmern müssen.
quelle
AFAIK, RAID ist nicht immun gegen Fragmentierungseffekte. Trotz der Anzahl der physischen Festplatten muss der FS immer noch eine separate E / A-Anforderung für jedes Fragment ausgeben, oder?
Ja, ein gut defragmentiertes System erledigt Backups schneller. Stimmen Sie auch zu, dass geringer Speicherplatz und Fragmentierung keine gute Kombination sind, um diese Situation zu vermeiden.
Wenn es um die Defragmentierungszeit / -planung geht, ist eine Hintergrund-Defragmentierungslösung wie eine der Diskeeper Server-Editionen (nicht kostenlos!) Eine gute Wahl. Es defragmentiert nur mit inaktiven Ressourcen, sodass selbst auf einem Produktionsserver keine Auswirkungen zu erwarten sind. Einige unserer Server verwenden DK, und die Administratoren scheinen ziemlich zufrieden damit zu sein.
Übrigens, einige der BT-Clients (Utorrent kommt in den Sinn) verfügen über eine Vorbelegungsoption für den Torrent, sodass beim Herunterladen keine Fragmentierung auftritt, solange genügend zusammenhängender freier Speicherplatz für die Datei vorhanden ist.
quelle
Der Konsens (dem ich zustimme) scheint darin zu bestehen, nicht auf Servern zu defragmentieren, da die Vorteile den Leistungsverlust während der eigentlichen Defragmentierung nicht wert sind.
In dem TechNet- Artikel zur Konvertierung von physischen in virtuelle Dateien wird jedoch eine Defragmentierung empfohlen, um den Zeitaufwand für die P2V-Konvertierung zu verringern. Dies ist besonders wichtig, wenn Sie ein begrenztes Wartungsfenster haben, in dem Sie Ihr P2V vervollständigen können.
quelle