Die Fehlerkorrekturrate ist irreführend

10

In der Codierungstheorie bedeutet "wie gut ein Code ist", wie viele Kanalfehler korrigiert oder besser ausgedrückt, der maximale Rauschpegel, mit dem der Code umgehen kann.

Um bessere Codes zu erhalten, werden die Codes mit einem großen Alphabet (anstatt einem binären) entworfen. Und dann ist der Code gut, wenn er mit einer großen Anzahl fehlerhafter "Symbole" umgehen kann.

Warum ist das nicht Betrug? Ich meine, sollten wir uns nicht nur darum kümmern, was passiert, wenn wir jedes Symbol in eine binäre Zeichenfolge "übersetzen"? Die "Rate des Bitfehlers" unterscheidet sich von der Rate des "Symbolfehlers". Zum Beispiel kann die Bitfehlerrate nicht über 1/2 liegen, während (wenn ich das richtig verstehe) bei einem ausreichend großen Alphabet der Symbolfehler bis zu . Liegt das daran, dass wir den Kanal künstlich einschränken, nur "Symbole" anstelle von Bits zu ändern, oder liegt es daran, dass der Code tatsächlich besser ist?1- -ϵ

Ran G.
quelle
1
Warum sollten Sie sich auf Binärcodes beschränken, wenn Ihr Übertragungsmedium / Ihre Übertragungs-Technologie viel mehr verarbeiten kann?
Raphael
@Raphael Es wäre hilfreich, wenn Sie Ihren Standpunkt mit ein paar praktischen Beispielen realer Technologien für den Umgang mit nicht-binären Symbolen begründen und als Antwort veröffentlichen könnten.
M. Alaggan
@ M.Alaggan: Ich bin kein Experte in diesem Bereich; Ich denke, wenn Sie 0/1 auf einem Wellenträger codieren können, können Sie auch viel mehr Symbole codieren und mehr Informationen nach Zeitintervall übertragen. Es würde mich überraschen, wenn die moderne Technologie dies nicht tun würde (denken Sie an Code-Multiplexing), aber ich kann kein konkretes Beispiel nennen.
Raphael
@Raphael Ich denke, Sie haben Recht, aktuelle digitale Kommunikationskanäle funktionieren mit größeren Symbolen, aber nicht mehr als beispielsweise 256 Bit pro Symbol (was für drahtlose Geräte recht selten ist, für Kabel jedoch häufig vorkommt). Die Symbolgröße ist jedoch auf sehr kleine Größen beschränkt und kann (praktisch) nicht nach Belieben wachsen.
Ran G.

Antworten:

8

Viele weit verbreitete Codes für Binärdaten sind verkettete Codes, die aus zwei fehlerkorrigierenden Codes bestehen. Der innere Code befindet sich über einem binären Alphabet, und der äußere Code befindet sich über einem Alphabet, dessen Symbole den Codewörtern des inneren Codes entsprechen. Auf diese Weise können Sie die überlegene Leistung größerer Alphabete nutzen, um Binärnachrichten ohne "Betrug" zu codieren.

Die Standarddefinition des Mindestabstands ist eine natürliche Definition für verkettete Codes sowie für die Theorie der Codes über große Alphabetgrößen. Es wäre nur "Betrug", wenn Sie diese Zahlen verwenden würden, um einen Binärcode mit einem Code mit großem Alphabet zu vergleichen, der Binäreingaben ohne Verwendung eines inneren Codes codiert. Codierungstheoretiker sind klug genug, dies nicht zu tun (und ich glaube, dass seit der Erfindung verketteter Codes häufig Codes mit großem Alphabet zusammen mit einem inneren Code verwendet wurden, aber Codes mit großem Alphabet auch sehr gut zur Korrektur von Fehlern in Burst-Kanälen wie z als CDs, da eine große Anzahl aufeinanderfolgender Bitfehler nur wenige "Symbole" betrifft).

Peter Shor
quelle
Peter, danke für die Antwort. Stimmt es bei einem verketteten Code nicht, dass die (Bit-) Fehlerrate 1/2 nicht überschreiten darf? Diese Methode ermöglicht es uns also, näher an 1/2 heranzukommen und gleichzeitig die Dekodierung effizient zu halten, oder?
Ran G.
@Ran: Bei einem Binärcode darf die Bitfehlerrate 1/2 nicht überschreiten. Verkettete Codes müssen nicht binär sein. Aber das ist ein Trottel; Ihr Kommentar ist im Wesentlichen richtig.
Peter Shor