Konsolidierung und Außerbetriebnahme von Daten über das Netzwerk

0

Vor kurzem wurde ich beauftragt, unsere Datenbasis in unserem Netzwerk zu konsolidieren. Wir haben mehrere Terabyte an Daten, die auf mehreren Servern vorhanden waren, und ich würde schätzen, dass ungefähr 30-40% der Daten nutzlos sind. Ich würde "nutzlose" Daten als Daten klassifizieren, die seit über 7 Jahren nicht mehr bearbeitet wurden, weil jemand sie an einen neuen Speicherort verschoben hat und niemals die alte bereinigt hat, oder sie sind einfach irrelevant und alt.

Meine Frage ist...

Gibt es ein Tool, mit dem ich große Datenmengen scannen kann, um mögliche verwaiste Verzeichnisse in unserem Netzwerk zu identifizieren?

Michael J. Lee
quelle
1
In Bezug auf was verwaist? Du meinst einzigartig? Keine Duplikate? Keine Referenzen? Ich würde keine automatisierten Methoden empfehlen, die in irgendeiner Weise destruktiv sind, und das Scannen zerstört die letzten Zugriffszeiten der Dateien. Daten sind heilig. Ich fürchte, das ist ein schrecklicher Job, der unbedingt viel Liebe zum Detail erfordert.
Andy Lee Robinson
Möchten Sie nur ein Tool, das nach Dateien sucht, die älter als 7 Jahre sind?
Soandos
@soandos: ich denke das wäre ein guter anfang.
Michael J. Lee
@Andy: Ich plane, die verdächtigen Daten auf ein Band oder ein externes Laufwerk zu verschieben. Ich plane keine Löschung.
Michael J. Lee
Gibt es noch ein anderes Kriterium?
Soandos

Antworten:

1

Hier ist ein Vorschlag für die Suche nach DoubleKiller: Ich fand es sehr nützlich, um doppelte Dateien anhand von Terabytes zu identifizieren. Es gibt viele Suchoptionen und Einschränkungen für die zu durchsuchenden Verzeichnisse. Es ist ein nützliches Werkzeug für das Arsenal, aber wie bei jedem anderen Lesen von Dateien werden Zugriffszeiten zerstört, falls sie in Zukunft benötigt werden.

Andy Lee Robinson
quelle
cool! Läuft es jetzt :)
Michael J. Lee
toll, froh, helfen zu können ...
Andy Lee Robinson