Ich habe gesehen, dass sich CPUs und Betriebssysteme in Bezug auf Bits von 8-Bit auf 16-Bit, auf 32-Bit und derzeit auf 64-Bit nach oben bewegt haben. Ich verstehe, dass diese Änderung dazu dient, die maximale Speichermenge zu erhöhen, die von der CPU adressiert werden kann.
Was ich nicht verstehe ist, warum es immer eine Verdoppelung der Busgröße gibt. Ist es nur eine willkürliche / geschäftliche Entscheidung, die Busgröße zu verdoppeln, oder gibt es einen anderen Grund?
Warum können wir keine 33-Bit-CPU haben? Oder wenn das nicht genug wäre, eine 34-Bit-CPU? 64-Bit scheint ein solch massiver und unnötiger (teurer?) Sprung in den Adressraum und vermutlich die Komplexität des zugrunde liegenden Siliziums zu sein.
Antworten:
Ich habe 12-, 14-, 15-, 17-, 18-, 20-, 24- und 48-Bit-CPUs gesehen. Aber mit moderner VLSI-Technologie (oder ist es mittlerweile ULSI?) Ist das Hinzufügen weiterer Bits zum Datenpfad nicht so teuer. Chipentwickler drängen so viel Breite wie möglich auf den Chip, da dies den Durchsatz mit relativ geringen zusätzlichen Kosten und nur einer geringen Zykluszeitstrafe erhöht.
Es ist viel schwieriger, mit einem engen Datenpfad und einer schnelleren Zykluszeit mehr Geschwindigkeit / Durchsatz zu erzielen.
quelle
Im Gegensatz zu vielen Umständen in einem Computer, zum Beispiel beim Adressieren, bei denen das Erhöhen der Adresslänge um ein Bit die Menge des adressierbaren Speichers um eine Potenz von 2 erhöht (und warum Potenzen von 2 im Speicher so häufig sind), ist die tatsächliche Wortlänge der CPU kann ein beliebiger bequemer Wert sein.
Die üblichen Wortlängen für Prozessoren (16, 32 und 64 Bit) ergaben sich tatsächlich als Vielfache von 8 (anstelle von Zweierpotenzen, obwohl diese speziellen Vielfachen von 8 natürlich auch Potenzen von 2 sind), wobei 8 Bit die sind Mindestgröße für ein einzelnes Zeichen , selbst der kleinste häufig verwendete primitive Datentyp.
Da 8 Bit selbst zu ungenau sind, um für numerische Werte (oder sogar für erweiterte Zeichensätze wie UTF-16) sehr nützlich zu sein, ermöglichen Wörter, die größer als 8 Bit sind, eine viel höhere Effizienz, wenn mit Werten gearbeitet wird, die mehr als so viele Genauigkeitsbits verwenden und Vielfache von 8 Bits (der kleinste häufig verwendete Datentyp) sind immer noch die natürliche Wahl, sodass man eine ganzzahlige Quantifizierung von (z. B. 2, 4 oder 8) Zeichen in einem Wort speichern kann, ohne verschwendete, nicht verwendete Bits zu hinterlassen.
Der Wikipedia-Artikel über Wörter enthält einen Abschnitt zur Auswahl der Wortgröße mit etwas mehr Details.
quelle