In der Codierungstheorie bedeutet "wie gut ein Code ist", wie viele Kanalfehler korrigiert oder besser ausgedrückt, der maximale Rauschpegel, mit dem der Code umgehen kann.
Um bessere Codes zu erhalten, werden die Codes mit einem großen Alphabet (anstatt einem binären) entworfen. Und dann ist der Code gut, wenn er mit einer großen Anzahl fehlerhafter "Symbole" umgehen kann.
Warum ist das nicht Betrug? Ich meine, sollten wir uns nicht nur darum kümmern, was passiert, wenn wir jedes Symbol in eine binäre Zeichenfolge "übersetzen"? Die "Rate des Bitfehlers" unterscheidet sich von der Rate des "Symbolfehlers". Zum Beispiel kann die Bitfehlerrate nicht über 1/2 liegen, während (wenn ich das richtig verstehe) bei einem ausreichend großen Alphabet der Symbolfehler bis zu . Liegt das daran, dass wir den Kanal künstlich einschränken, nur "Symbole" anstelle von Bits zu ändern, oder liegt es daran, dass der Code tatsächlich besser ist?