Ich habe kürzlich einen Vergleich zwischen 2005 und 2014 der microSD-Karte gesehen: 2005 gab es nur maximal 128 MByte microSD-Karten und 2014 128 GByte.
Meine Frage : Ich bin nicht 100% sicher. Ist 128 GByte 1000 × größer als 128 MByte oder 1024 × größer?
Antworten:
Kilobyte, Megabyte und Gigabyte bedeuten unterschiedliche Dinge, je nachdem, ob der verwendete internationale Standard auf Potenzen von 2 (binär) oder 10 (dezimal) basiert.
Es gibt drei Standards:
Internationales Einheitensystem (SI)
Die moderne Form des metrischen Systems und das weltweit am weitesten verbreitete Messsystem, das sowohl im täglichen Handel als auch in der Wissenschaft verwendet wird.
JEDEC
Die Spezifikationen für Halbleiterspeicherschaltungen und ähnliche Speichergeräte, die von der Solid State Technology Association des Joint Electron Device Engineering Council (JEDEC), einer Organisation für Halbleiterhandel und technische Standardisierung, veröffentlicht wurden.
International Electrotechnical Commission (IEC)
Internationale Normungsorganisation, die internationale Normen für alle elektrischen, elektronischen und verwandten Technologien erstellt und veröffentlicht.
Je nachdem, in welcher Branche Sie tätig sind und ob Sie Microsoft verwenden, können die Definitionen variieren. Zum Beispiel steht Gigabyte "meistens" für 10 9 Bytes (GB). Viele Computer verwenden diesen Begriff für 1024 3 , während andere den Begriff Gibibyte (GiB) verwenden würden, während andere GiB schreiben und ihn als Gigabyte bezeichnen würden.
Die Verwirrung ist für Kilobyte noch größer, was sowohl für 1000 als auch für 1024 stehen kann!
Einige würden sagen, dass ein Megabyte 1000 2 ist und dass 1024 2 Mebibyte genannt werden sollte, andere würden nicht zustimmen.
Der Wikipedia-Artikel Gigabyte beschreibt, wie diese Begriffe in die internationalen Standards aufgenommen wurden, und enthält die folgende Tabelle:
Im Alltag verwenden Programmierer normalerweise Megabyte und Gigabyte als binäre Basis 2, was auch bei Microsoft Windows der Fall ist. Festplattenhersteller und andere Unternehmen als Microsoft verwenden normalerweise die Dezimalbasis 10. Aus diesem Grund meldet Windows die Kapazität einer neuen Festplatte als kleiner als auf der Box angegeben.
Fazit : Ein Gigabyte ist sowohl 1000-mal als auch 1024-mal größer als ein Megabyte. Dies hängt davon ab, welchen internationalen Standard Sie derzeit verwenden. Genau genommen lautet die Notation, die die Einheiten klarer macht:
(aber nicht jeder würde zustimmen.)
Verweise :
wikipedia Binäres Präfix
Internationales Einheitensystem (SI) - Präfixe für binäre Vielfache
Einheiten (7) - Linux-Handbuchseite
Western Digital Settles Capacity Suit (diese Verwirrung verursachte sogar einen Rechtsstreit!)
quelle
Die SD-Kartenspezifikationen werden ab August 1999 von der SD Association (SDA) geregelt. Dies bedeutet, dass für beide Zeiträume in Ihrer Frage SDA-Standards gelten.
SDA- Kapazitätsstandards legen fest, welches Dateisystem bei der Bestimmung von Kapazität, Geschwindigkeit, Klasse usw. verwendet werden soll (z. B. Angaben zur physischen Größe).
Angenommen, es handelt sich um den microSD-SDHC-Standard, werden diese auf FAT32-Dateisystemen festgelegt. ( Randnotiz - FAT32 daher die maximale Dateigröße von 32 GB auf dieser Kartenklasse ). Diese Größen werden in Basis 2 festgelegt und sollten sich auf MiB und GiB beziehen, nicht auf MB und GB.
Dies weist darauf hin, dass gemäß den SDA-Spezifikationen die Kapazitäten eher dezimal als binär bestimmt werden, indem in der Dokumentation GB (dezimal) anstelle von GiB (binär) verwendet wird . Der Unterschied zwischen Dezimal und Binär ist in dieser Tabelle zu sehen und zeigt:
128 MB = 128 x 1000 2 und
128 GB = 128 x 1000 3
Sie können 128 x 1000 2 x 1000 = 128 x 1000 3 sehen .
128 GB sind 1000-mal größer als 128 MB
Es ist wahrscheinlich, dass die SDA auf der Grundlage des durchschnittlichen Verbraucherverständnisses dezimale Kapazitätsstandards verabschiedet hat.
quelle
Es ist 1000 mal größer. Zur Überprüfung können Sie einen auf Einheiten basierenden Taschenrechner wie Frink verwenden , um die Berechnung durchzuführen.
Obwohl Google nicht einverstanden ist und 1024 zurückgibt
Es gibt also eine Meinungsverschiedenheit zwischen diesen beiden Quellen, so dass wir auf die Mathematik zurückgreifen können.
1 GByte in Bytes laut Google ist 1073741824.1 Megabyte in Bytes laut Google ist 1048576. Deshalb antworten sie mit 1024.
Frink verfolgt mit 1000000000 bzw. 1000000 einen anderen Ansatz.
Für eine Diskussion über die Geschichte der Spaltung zwischen 1000 (10 ^ 3) und 1024 (2 ^ 10) können Sie Wikepedia sehen, in dem es heißt:
Zu Beginn dieser Antwort sagte ich, sie sei 1000-mal größer. Der Grund, warum ich das getan habe, ist aus praktischer Sicht, weil es das konservativere von beiden ist und es weniger wahrscheinlich ist, dass es falsch ist. Wenn Sie beispielsweise bei allen möglichen Interpretationskombinationen X Dateien auf der kleineren microSD-Karte speichern können, sollten Sie sicher 1000-mal X Dateien auf der größeren microSD-Karte speichern können.
quelle
Wie Sie den Antworten entnehmen können, werden zwei allgemeine Definitionen verwendet. Sie müssen also immer herausfinden, wer den Begriff verwendet.
Festplattenhersteller verwenden fast immer 1000x, daher sind ihre Gigabyte 1000 Megabyte. (Siehe die berühmten Klagen)
Speicher macht immer 1024x verwenden. Sie können keinen Computer mit 65,5 GB RAM kaufen, aber Sie können einen mit 64 GB kaufen. (Siehe JEDEC-Konventionen)
Die Netzwerkgeschwindigkeit beträgt 1000x, sodass das Gbit / s-Ethernet 1000 Mbit / s beträgt. (Siehe auch IEC-Spezifikationen)
SI hat keinen Standard für Bytes, daher ist ihre Definition für diese Diskussion etwas irrelevant.
Jetzt sind SD-Karten ein Sonderfall. Sie erscheinen dem Betriebssystem als Festplatten, bestehen jedoch physisch aus Chips, genauer gesagt NAND-Flash. Aus diesem Grund folgen die Macher Gedächtniskonventionen. 128 GB sind 128 * 1024 MByte.
quelle