Vor kurzem wurde ich beauftragt, unsere Datenbasis in unserem Netzwerk zu konsolidieren. Wir haben mehrere Terabyte an Daten, die auf mehreren Servern vorhanden waren, und ich würde schätzen, dass ungefähr 30-40% der Daten nutzlos sind. Ich würde "nutzlose" Daten als Daten klassifizieren, die seit über 7 Jahren nicht mehr bearbeitet wurden, weil jemand sie an einen neuen Speicherort verschoben hat und niemals die alte bereinigt hat, oder sie sind einfach irrelevant und alt.
Meine Frage ist...
Gibt es ein Tool, mit dem ich große Datenmengen scannen kann, um mögliche verwaiste Verzeichnisse in unserem Netzwerk zu identifizieren?
windows
filesystems
network-shares
Michael J. Lee
quelle
quelle
Antworten:
Hier ist ein Vorschlag für die Suche nach DoubleKiller: Ich fand es sehr nützlich, um doppelte Dateien anhand von Terabytes zu identifizieren. Es gibt viele Suchoptionen und Einschränkungen für die zu durchsuchenden Verzeichnisse. Es ist ein nützliches Werkzeug für das Arsenal, aber wie bei jedem anderen Lesen von Dateien werden Zugriffszeiten zerstört, falls sie in Zukunft benötigt werden.
quelle