Bis heute wusste ich, dass ein Bit eine Variable oder ein Speicherplatz ist, der den Wert Eins (hoch) oder Null (niedrig) enthalten kann. Dies ist das Konzept, das ich durch das Studium von Computerprogrammierung, Mikroprozessor oder DATA-Bus usw. gelernt habe.
Aber nachdem ich den Kurs über Informationstheorie begonnen hatte, fand ich heraus, dass Bit als Informationsgehalt eines Symbols in einer Nachricht ausgedrückt wird. Dies wird unter Verwendung des Logarithmus (Basis 2) der Umkehrung der Wahrscheinlichkeit des Auftretens des Symbols berechnet.
Sind diese beiden Konzepte gleich? Ein Bit ist einerseits eine Variable, die entweder Null oder Eins speichern kann. Andererseits ist ein Bit die Unsicherheit, die mit einem von zwei Symbolen mit einer Eintrittswahrscheinlichkeit von 0,5 verbunden ist. Bedeutet 1 Bit in der Computerprogrammierung oder im ASCII-Code 1 Bit im Informationsgehalt der Quelle oder der Informationstheorie?
Eine kleine Änderung: Hier ist eine Sache, bei der ich Probleme habe, dieses Thema zu verstehen. Wenn wir bei der Datenübertragung von englischen Alphabeten ASCII-Code verwenden, stellen wir grundsätzlich jedes Symbol mit 8 Bits dar. Angenommen, das ist 00000000 für a, 00000001 für b usw. Wir weisen also im Wesentlichen 8 Quantisierungsstufen für jedes Symbol zu.
Wenn jedoch die Informationstheorie ins Spiel kommt, berücksichtigen wir die Wahrscheinlichkeit jedes Symbols. 'E' hat die höchste Frequenz, wobei 'Z' die niedrigste hat. Der durchschnittliche Informationsgehalt beträgt also 3 oder 4 Bit, oder?
In meinem Buch heißt es: "Entropie oder durchschnittlicher Informationsgehalt ist die minimale durchschnittliche Anzahl von Bits, die erforderlich sind, um jede Probe ohne Verzerrung darzustellen." Erstellen wir in diesem Fall für eine effiziente Datenübertragung maximal vier Quantisierungsstufen für jedes Symbol? Weil sie im Durchschnitt Informationen im Wert von 4 Bit enthalten. Wenn dem so ist, ist das Bit in der Informationstheorie nicht dasselbe wie das in der Computerprogrammierung, Datenübertragung oder im ASCII-Code usw.?
Sie bekommen wahrscheinlich, dass ich hier eindeutig ein Noob bin: p
quelle
Antworten:
Sie sind nicht gleich, aber sie sind verwandt. Wenn Sie sich insbesondere einen Computerspeicher ansehen, der "Computer" -Bits enthält, wobei jedes Bit als zufällig und unabhängig von allen anderen Bits betrachtet werden kann und ungefähr 50% der Nullen vorhanden sind, enthält der Speicher auch ungefähr "Informationstheorie "Bits.M M
Natürlich ist dies oft nicht der Fall: Computerbits sind normalerweise korreliert und nicht einheitlich zufällig. Deshalb können sie komprimiert werden. Kompressorprogramme wie LZW ("Quellcodierer" in der informationstheoretischen Sprache) arbeiten gewissermaßen so, dass jedes Computerbit ein Informationsbit enthält.
Bearbeitet, um hinzuzufügen: Dieses Beispiel kann die Unterscheidung klarer machen. Betrachten Sie eine speicherlose Quelle mit zwei Ausgängen, und , mit einer Wahrscheinlichkeit von jeweils 0,5. Es ist klar, dass die Informationen in jeder Nachricht ein (Informations-) Bit sind, aber ihre Länge beträgt drei (Computer-) Bits. Ein Quellcodierer wie der Huffman-Algorithmus codiert die Nachrichten leicht auf und , wodurch die komprimiert wird. Sie können dieses Beispiel leicht auf eine Quelle extrapolieren, die ASCII-codierten Text erzeugt.m1=000 m2=001 c1=0 c2=1
Beachten Sie, dass bei Schriftsprachen im Allgemeinen und Englisch im Besonderen niemand die tatsächliche Quellenentropie kennt, da es kein Modell dafür gibt. Aus diesem Grund gibt es Wettbewerbe für die beste Komprimierung großer Textkörper. Niemand ist sich wirklich sicher, was der optimale Komprimierungsalgorithmus für Englisch ist.
quelle
Bit ist eine Maßeinheit und mehrere Größen werden in Bits gemessen. Es ist nicht so, dass Programmierung und Informationstheorie unterschiedliche Bedeutungen haben. Es ist so, dass Speicher und Informationsgehalt konzeptionell unterschiedliche Größen darstellen.
Zum Beispiel können wir das Passwort '' 123456 '' nehmen. Wenn es in UTF-8 codiert ist, benötigt es 6 * 8 = 48 Bit Speicher. Für Zwecke der realen Welt beträgt der Informationsgehalt etwa 10 Bit. Bit bedeutet in beiden Fällen gleich, die gemessene Größe ist unterschiedlich. Wenn Sie das Kennwort komprimieren, verringert sich der Speicherbedarf, der Informationsgehalt ändert sich jedoch nicht.
Eine Analogie: Physikalische Größen wie Schwerkraft und elektromagnetische Kraft werden beide in Newton gemessen, repräsentieren jedoch unterschiedliche Arten von Wechselwirkungen. Sie können empirisch sehen, dass die Einheit Newton in beiden Fällen dieselbe Idee darstellt - Schwerkraft und elektromagnetische Kraft können sich gegenseitig ausgleichen (Magnetschwebebahn).
Ich hoffe das hilft :)
quelle
Auf dem Datenbus können wir theoretisch besser abschneiden als es die Informationstheorie sagt. Ich weiß, wie man eine Schaltung baut, mit der ich 8 Bits parallel über 6 Drähte senden kann. Dies beinhaltet einen Trick mit Dioden und Pull-Up / Down-Widerständen, mit dem alle drei nicht brennenden Zustände eines digitalen Kabels zur Informationsübertragung verwendet werden können. Mit 3 Zuständen von 6 Leitungen erhalte ich 729 mögliche Zustände, wodurch ich EOF, INT, CLK übertragen und im Hauptkanal getrennt werden kann und immer noch viel Platz habe (dies verwendet nur 518 der 729 Zustände).
quelle