Ich habe schon 30 TB Volumen gemacht. Sie enthielten große Dateien, was erheblich dazu beiträgt, Leistungseinbußen zu vermeiden. Keine Probleme im Vergleich zu kleineren Volumina.
Probleme können auftreten, wenn dieses große Dateisystem genügend Dateien und Verzeichnisse aufbaut, um in die wahnsinnig großen Bereiche zu gelangen. Ich spreche von 20 Millionen Dateien und Verzeichnissen oder mehr Ebenen. Zu diesem Zeitpunkt ist die MFT wahrscheinlich ziemlich fragmentiert und befindet sich auf Servern mit eingeschränktem RAM , die möglicherweise zu Leistungsproblemen bei der Verzeichnisanzeige führen. Der tatsächliche Zugriff auf Dateien sollte nicht beeinträchtigt werden, sondern nur die Operationen zum Öffnen von fileOpen () und Verzeichnissen.
Ist es eine echte Möglichkeit? Ja, aber der Effekt gilt auch für ähnlich große Dateisysteme auf anderen Plattformen und aus demselben Grund. Außerdem sind die Vorgänge, die am stärksten vom Leistungsabfall betroffen sind, möglicherweise nicht einmal diejenigen, über die Sie sich Sorgen machen. Da dies wie ein neues Setup klingt, klingt es nicht so, als würden Sie diese 10 TB auf einem Server mit nur 1 GB RAM verwenden, sodass Sie sich keine Sorgen machen müssen.
Woher die Sorge um die Größe kam, ist wahrscheinlich die WinNT- und Win2K-Ära, als MBR-Einschränkungen die Erstellung großer Volumes schwierig machten. Dies erforderte einige Tricks, um all das anzugehen, und in der Ära hatte der Trick Kosten. Dies vergrößerte die Leistungseinbußen bei vielen kleinen Dateien . GPT hat dieses Problem nicht. GPT-Volumes waren die ersten in Windows 2003, aber ihre Neuheit bedeutete, dass konservative Sysadmins sie zunächst nicht viel verwendeten.
Alte Einstellungen sterben manchmal schwer. Besonders wenn es ein Trauma gibt, das sie verstärkt.