Warum leiden Festplatten unter Leistungseinbußen aufgrund von Kapazitätsverlusten?

15

Heute habe ich mein HDD-Datenblatt (ein Western Digital 500GB WD5000BPKT) durchgesehen und festgestellt, dass die "Performance" -Reihe "Host to / from Drive (Sustained)" aufgrund von a nominell an Lese- und Schreibleistung einbüßt Kapazitätsabnahme:

Bildbeschreibung hier eingeben

Ich frage mich, warum das so ist. Mir ist kein anderer Parameter aufgefallen, der sich in dieser Tabelle unterscheidet, außer der Gerätekapazität (750 GB bis 160 GB). Ich habe auch nach anderen Familien gesucht und das gleiche Verhalten festgestellt (Samsung und Seagate zeigen diese Leistungsparameter nicht in ihren Datenblättern an).

Kennt jemand den genauen physischen Grund für dieses Verhalten, wenn man bedenkt, dass alle Festplatten derselben Familie angehören und im Wesentlichen gleich sind?

Diogo
quelle

Antworten:

17

Die Speicherdichte der größeren Festplatten ist höher als die der kleineren. Dies bedeutet, dass bei gleicher Drehzahl (7200 U / min) Daten schneller gelesen / geschrieben werden können.

Aus der Speicherdichte # Auswirkungen auf die Leistung - Wikipedia, die freie Enzyklopädie :

Die Erhöhung der Speicherdichte eines Mediums verbessert fast immer die Übertragungsgeschwindigkeit, mit der dieses Medium arbeiten kann. Dies ist am offensichtlichsten, wenn verschiedene plattenbasierte Medien betrachtet werden, bei denen die Speicherelemente über die Oberfläche der Platte verteilt sind und physikalisch unter dem "Kopf" gedreht werden müssen, um gelesen oder beschrieben zu werden. Höhere Dichte bedeutet, dass sich bei einer bestimmten mechanischen Bewegung mehr Daten unter dem Kopf bewegen.

Anhand der Diskette als grundlegendes Beispiel können wir die effektive Übertragungsgeschwindigkeit berechnen, indem wir bestimmen, wie schnell sich die Bits unter dem Kopf bewegen. Eine Standard-3½ "-Diskette dreht sich mit 300 U / min, und die innerste Spur ist ungefähr 66 mm lang (10,5 mm Radius). Bei 300 U / min beträgt die lineare Geschwindigkeit des Mediums unter dem Kopf somit ungefähr 66 mm × 300 U / min = 19800 mm / min , oder 330 mm / s. Entlang dieser Spur werden die Bits mit einer Dichte von 686 Bit / mm gespeichert, was bedeutet, dass der Kopf 686 Bit / mm x 330 mm / s = 226.380 Bit / s (oder 28,3 KiB / s) sieht. .

Betrachten Sie nun eine Verbesserung des Designs, die die Dichte der Bits verdoppelt, indem Sie die Abtastlänge verringern und den gleichen Spurabstand beibehalten. Dies würde sofort zu einer Verdoppelung der Übertragungsgeschwindigkeit führen, da die Bits doppelt so schnell unter dem Kopf vorbeiziehen würden. Frühe Diskettenschnittstellen wurden ursprünglich mit einer Übertragungsgeschwindigkeit von 250 kbit / s entwickelt und wurden bereits mit der Einführung der "High Density" -Disketten mit 1,44 MB (1.440 KiB) in den 1980er Jahren übertroffen. Die überwiegende Mehrheit der PCs enthielt Schnittstellen für Festplatten mit hoher Dichte, die stattdessen mit 500 kbit / s betrieben wurden. Auch diese wurden von neueren Geräten wie dem LS-120 völlig überfordert, die dazu gezwungen waren, schnellere Schnittstellen wie IDE zu verwenden.

(Hervorhebung von mir)

Dennis
quelle
Seien Sie vorsichtig beim Vergleich mit einer Diskette. Die Disketten- (und ST-506-) Schnittstelle enthält Rohdaten zum / vom Controller auf dem Host-PC. IDE- und SATA-Laufwerke verfügen über integrierte Festplattencontroller, die die Daten nach dem Lesekopf vollständig puffern. Die PATA / SATA-Übertragungsraten zum / vom Host-PC sind unabhängig und völlig unabhängig von den R / W-Kopfoperationen. Diese "dauerhaften" Übertragungsraten in der Tabelle sind Durchschnittswerte , die die Leerlauf- oder Totzeit auf der Schnittstelle (während auf die Sektoren zugegriffen / gelesen wird) sowie die vollständigen 3-Gbit / s-Datenübertragungen umfassen.
Sägemehl
@sawdust: Die Floppy-Analogie soll lediglich veranschaulichen, wie eine höhere Dichte zu höheren Geschwindigkeiten führen kann. Zu sagen, dass die Übertragungsrate von Host zu Laufwerk unabhängig und völlig unabhängig von der Medienrate ist, ist ein bisschen weit hergeholt. Die anhaltende maximale Übertragungsrate wird über einen langen Zeitraum gemittelt und normalerweise für sequenzielle Lesevorgänge angegeben. Dadurch werden Kopf- / Zylinderschalter auf ein Minimum reduziert, sodass die Medienrate der entscheidende Faktor ist.
Dennis
OK, das war nicht klar formuliert. Da die Sektorübertragungszeiten des Lesekopf-zu-Sektor-Puffers und des Sektor-Puffer-zu-Hosts summiert werden, sind beide mathematisch mit der durchschnittlichen Übertragungsrate korreliert. Diese beiden Operationen werden jedoch nicht gleichzeitig, sondern nacheinander ausgeführt . Die Sektordaten werden in den Puffer eingelesen (mit einer Rate, die auf der Bitdichte des Plattentellers basiert). Es wird dann validiert. Falls erforderlich, wird eine Fehlerkorrektur angewendet oder der Sektor muss neu gelesen werden. Erst nach Überprüfung werden die Sektordaten an den Host übertragen (mit der Geschwindigkeit der Schnittstelle, in diesem Fall SATA II 3Gb / s).
Sägemehl
4

Nun, alle Laufwerke haben angeblich die gleiche Größe (wie in Höhe, Breite, Tiefe). Um also mehr Daten in diese Größe einzupassen, müssen die Daten mit höherer Dichte gepackt werden.

Die beweglichen Teile (wie der Kopf) auf den Festplatten bewegen sich höchstwahrscheinlich alle mit derselben Geschwindigkeit.

Wenn Sie also die Datendichte erhöhen, aber die Geschwindigkeit, mit der Sie die Daten überfliegen, konstant bleibt, erhöhen Sie den Gesamtdurchsatz.

Der Hochstapler
quelle
1
Ja, aber - ein typisches Laufwerk verfügt möglicherweise über eine, zwei oder drei Platten. Die Gesamtkapazität ist kein absoluter Indikator für die Datendichte. Hier ist ein Beitrag ( rml527.blogspot.com/2010/10/… ), der Western Digital 2,5-Zoll-Laufwerke mit Dichten von 160 GB, 250 GB, 320 GB und 500 GB pro Platte auflistet.
Dave Becker
3

Ich glaube, Advanced Format bezieht sich auf die Verwendung von 4k Sektoren anstelle von 512 Bytes. Unter anderem bedeutete diese Änderung, dass weniger Bits auf dem Plattenteller für ECC-Codes verwendet werden mussten. Infolgedessen müssen etwas weniger Bits gelesen werden, um eine bestimmte Datenmenge vom Laufwerk zu erhalten. Bei sonst gleichen Bedingungen würde dies zu einer etwas höheren maximalen Übertragungsrate führen. Dies ist wahrscheinlich die Erklärung für den Unterschied zwischen den beiden 500-MB-Laufwerken.

Dan Neely
quelle
1

Nun, nur eine wilde Vermutung, aber:

Eine Festplatte ist in mehrere Spuren unterteilt, von denen jede in mehrere gleich große Blöcke unterteilt ist.

Beim Lesen von Daten bewegt eine Festplatte ihren Kopf zuerst in die rechte Spur und wartet dann, bis sich die Platte in den rechten Block gedreht hat. Für ein aufeinanderfolgendes Lesen größerer Dateien, die sich über mehrere Blöcke und Spuren erstrecken, muss diese Bewegung ziemlich oft vorkommen. (noch mehr mit höherer Fragmentierung)

Die größeren Laufwerke haben entweder eine höhere Datenrate auf jedem Track oder enthalten eine zusätzliche Festplatte. Auf diese Weise ist der Kopf nicht gezwungen, sich so oft zu bewegen, was die Übertragungsrate effektiv erhöht.

(Informationen zu den Zugriffszeiten finden Sie auf Wikipedia )

Baarn
quelle
1

Zusätzlich zu höheren Bitdichten ist eine andere mögliche Antwort, dass die größeren HDs MEHR Platten / Platten haben. Mit mehr Platten sehen Sie mehr Bits gleichzeitig, ohne die Leseköpfe bewegen zu müssen. Einige Laufwerke werden mit demselben Effekt auch auf zweiseitige Platten verschoben

Ron
quelle