У теорії кодування "наскільки хороший код" означає, скільки канальних помилок можна виправити або, що краще сказати, максимальний рівень шуму, з яким може справитися код.
Для отримання кращих кодів коди розроблені за допомогою великого алфавіту (а не двійкового). І тоді, код хороший, якщо він може мати справу з великою швидкістю помилкових "символів".
Чому це не вважається обманом? Я маю на увазі, чи не слід нас хвилювати лише те, що відбувається, коли ми «переводимо» кожен символ у двійковий рядок? "Швидкість бітової помилки" відрізняється від швидкості "помилки символів". Наприклад, швидкість бітової помилки не може перевищувати 1/2 (якщо я правильно це розумію), при досить великому алфавіті символ-помилка може доходити до . Це тому, що ми штучно обмежуємо канал змінювати лише "символи", а не біти, чи це тому, що код насправді кращий?