Wir haben eine Festplatte, die 600 Gigs und fast voll ist. Es wurde mit 18.501.765 Dateien (meist kleine 19.000 Bilder) und 7.142.132 Ordnern gefüllt. Es ist sehr schwierig herauszufinden, wo genau der gesamte Raum auch geblieben ist. Unsere regelmäßigen Bereinigungsverfahren räumen nicht genügend Speicherplatz auf, was bedeutet, dass wir dieses Laufwerk als Ganzes betrachten und feststellen müssen, was da draußen ist und was verschoben oder entfernt werden kann. Wir haben verschiedene Anwendungen ausprobiert und bisher sind sie entweder in die Luft gesprengt oder nur für eine erstaunliche Zeitspanne ausgeführt worden.
Serverinformation
- Betriebssystem: Windows Server 2003
- Dateisystem: NTFS
Lösung
Space ObServer konnte 18.501.765 Dateien und 7.142.132 Ordner lesen, ohne dass dabei Speicherplatz in Anspruch genommen wurde. Ich bin mir sicher, dass dies hauptsächlich auf die Tatsache zurückzuführen ist, dass ein SQL-Backend zum Speichern aller Daten verwendet wird. Es ist leider das teuerste aller Produkte bei 259,95 USD pro Server.
Versuchte Lösungen
Während meiner Recherche habe ich verschiedene kostenpflichtige und kostenlose Lösungen ausprobiert. Ich habe eine Liste der Produkte, die ich unten ausprobiert habe, zur Information für alle zusammengestellt.
Gratis Software
JDiskReport - Stoppt bei 10 MillionenWinDirStat - Stoppt bei 10 MillionenSpaceMonger - Überspringen wegen Erwähnung des RAM-SpeichersSpaceSniffer - Stoppt bei unbekanntem Absturz
Bezahlsoftware
FolderSizes - Stoppt bei 12 Millionen (3 Millionen Ordner)TreeSize Professional - Überspringen aufgrund der Erwähnung des RAM-Speichers
Aktualisierung
Update Nr. 1 : Der zu analysierende Server verfügt über 2 GB RAM, und die meisten Produkte, die ich versuche, scheinen die Datei- / Ordnerinformationen im Speicher zu behalten. Bei 18.501.765 Dateien und 7.142.132 Ordnern ist dies meist viel zu schnell erledigt.
Update Nr. 2 : Die Entwickler von WinDirStat waren anscheinend so involviert, dass sie uns mitteilten, dass es unter 64-Bit kompiliert werden kann. Das gibt mehr Arbeitsspeicher, aber ich bin mir nicht sicher, ob es ausreichen wird, wenn sie nicht auf der Festplatte bleiben können.
quelle
Antworten:
Angenommen, Ihr Betriebssystem ist Windows ...
In beiden Fällen dauert das Tabellieren von Millionen von Dateien sehr lange und wird durch die E / A der Festplatte selbst eingeschränkt. Ich empfehle TreeSize Professional . Oder vielleicht SpaceObServer . Sie können auch die Freeware-Version von TreeSize ausprobieren.
quelle
Versuchen Sie auf jeden Fall WinDirStat : Es bietet eine fantastische Visualisierung der Festplattennutzung, indem jede Datei als maßstabsgetreues Rechteck dargestellt wird, das nach Dateityp farbcodiert ist. Klicken Sie auf ein Element in der Visualisierung und Sie werden es in der Verzeichnisstruktur sehen.
Die 32-Bit-Standarderstellung ist auf 10 Millionen Dateien und 2 GB RAM begrenzt, der Quellcode wird jedoch erfolgreich als 64-Bit-Anwendung erstellt. Die Tatsache, dass der fragliche Server nur 2 GB RAM hat, kann in diesem speziellen Fall problematisch sein, aber die meisten Server mit einer so großen Anzahl von Dateien werden viel mehr RAM haben.
Edit # 1: Ich bedaure, festgestellt zu haben, dass WinDirStat Portable beim Testen auf einem 4-TB-Volume mit Millionen von Dateien nach der Indizierung von etwa 6,5 Millionen Dateien abstürzte. Bei der ursprünglichen Frage funktioniert es möglicherweise nicht, wenn das Laufwerk mehr als 6 Millionen Dateien enthält.
Edit # 2: Die Vollversion von WinDirStat stürzt bei 10 Millionen Dateien und 1,9 GB ab
Edit # 3: Ich habe Kontakt mit den WinDirStat-Entwicklern aufgenommen und: (1) sie sind sich einig, dass dies durch Speicherbeschränkungen der x86-Architektur verursacht wurde, und (2) erwähnt, dass es als 64-Bit-Version ohne Fehler kompiliert werden kann. Mehr in Kürze.
Edit # 4: Der Test eines 64-Bit Builds von WinDirStat war erfolgreich. Innerhalb von 44 Minuten wurden 11,4 Millionen Dateien indiziert und 2,7 GB RAM verbraucht.
quelle
Ich verwende FolderSizes regelmäßig auf mehreren 1-TB-Laufwerken mit mehreren Millionen Dateien ohne Probleme.
quelle
+1 für die TreeSize-Produkte, aber ...
Ihr Satz über "nicht genügend Speicherplatz bereinigen" lässt mich wundern: Könnte Ihnen der für NTFS MFT reservierte Speicherplatz ausgehen? Wenn das Dateisystem mehr MFT-Speicherplatz belegt, als ursprünglich zugewiesen wurde, wird dieser nicht in den regulären Dateibereich zurückgeführt und bei Defragmentierungsvorgängen nicht angezeigt.
http://support.microsoft.com/kb/174619
Volumes mit einer kleinen Anzahl von relativ großen Dateien erschöpfen zuerst den nicht reservierten Speicherplatz, während Volumes mit einer großen Anzahl von relativ kleinen Dateien zuerst den MFT-Zonen-Speicherplatz erschöpfen. In beiden Fällen beginnt die Fragmentierung der MFT, wenn eine Region oder die Wenn der nicht reservierte Speicherplatz voll ist, wird der Speicherplatz für Benutzerdateien und -verzeichnisse ab der MFT-Zone zugewiesen, die mit der MFT-Zone für die Zuweisung konkurriert die Festplatte, wieder im Wettbewerb mit anderen Dateien. "
quelle
Ernst. Ich habe das mit 5 oder 6 Millionen Dateien gemacht; Ich weiß nicht genau, wonach Sie suchen, aber eine gute Skriptsprache wird dies auffressen.
quelle
Normalerweise bin ich kein Windows-Benutzer, aber mir ist die Existenz von Cygwin bewusst. :-)
Wenn es gut genug funktioniert, so etwas wie
oder vielleicht in Cygwin
Auf jeden Fall sollten Sie die 50 größten Verzeichnisse ausdrucken (Größe in Megabyte).
quelle
Ich fand ein paar Probleme mit Spacemonger und auf der Suche nach einem Dienstprogramm, das ich leicht von einem USB-Stick übertragen oder ausführen konnte - Space Sniffer erwies sich in dieser Hinsicht als sehr vielseitig und handhabte Multi-Terabyte-Volumes mit Leichtigkeit.
quelle
du -s
kann zur Not verwendet werden und läuft so lange wie nötig.quelle
Unter Windows verwende ich SpaceMonger (oder eine ältere kostenlose Version ). Auf OSX Ich benutze Disk - Inventar X .
quelle
Schauen Sie sich GetFoldersize an
quelle
Was die MFT-Tabelle betrifft, so erinnere ich mich anscheinend an jkdefrag, die ursprüngliche OpenSource-Version, die eine sehr genaue Datenträgeransicht mit unterschiedlichen Farben für MFT-Bereiche lieferte. Ich glaube, ich habe das schon einmal benutzt, um eine Faustregel für die Größe und Fragmentierung von MFTs zu erstellen.
Interessiert sich auch nicht für chdsk.
Könnte das versuchen?
quelle
http://www.freshney.org/xinorbis/
Eine weitere mögliche Option
quelle
Ich habe Disk Usage Analyzer - Baobab unter Linux mit der Remote-Scan-Funktion auf einem Windows-Server verwendet. Ich weiß allerdings nicht, wo die Grenzen liegen.
Fedora LiveCD enthält Baobab. Starten Sie es auf einem beliebigen Computer in Ihrem LAN.
Es ist alles kostenlos - wie im Bier und wie in der Sprache. Auch für den gewerblichen Gebrauch.
quelle