Швидкість виправлення помилок вводить в оману


10

У теорії кодування "наскільки хороший код" означає, скільки канальних помилок можна виправити або, що краще сказати, максимальний рівень шуму, з яким може справитися код.

Для отримання кращих кодів коди розроблені за допомогою великого алфавіту (а не двійкового). І тоді, код хороший, якщо він може мати справу з великою швидкістю помилкових "символів".

Чому це не вважається обманом? Я маю на увазі, чи не слід нас хвилювати лише те, що відбувається, коли ми «переводимо» кожен символ у двійковий рядок? "Швидкість бітової помилки" відрізняється від швидкості "помилки символів". Наприклад, швидкість бітової помилки не може перевищувати 1/2 (якщо я правильно це розумію), при досить великому алфавіті символ-помилка може доходити до . Це тому, що ми штучно обмежуємо канал змінювати лише "символи", а не біти, чи це тому, що код насправді кращий?1ϵ


1
Чому ви обмежуєте себе двійковими кодами, якщо ваш носій / технологія передачі може працювати набагато більше?
Рафаель

@Raphael Це допоможе, якщо ви зможете обґрунтувати свою думку декількома практичними прикладами реальних технологій, що поводжуються з небінарними символами, і опублікуйте це як відповідь.
Мохаммед Алаган

@ M.Alaggan: Я не експерт з цього питання; Я думаю, якщо ви можете кодувати 0/1 на носії хвилі, ви також можете кодувати ще багато символів, передаючи більше інформації за часовим інтервалом. Мене здивувало б, якби сучасна технологія не зробила б цього (подумайте мультиплексування коду), але я не можу назвати конкретний приклад.
Рафаель

@Raphael Я думаю, ви праві, сучасні канали цифрового зв'язку дійсно працюють з більшими символами, але не більше, ніж, скажімо, 256-бітний символ (що є досить рідкісним для бездротового зв'язку, але може бути загальним для кабелів). Але розмір символів обмежений дуже маленькими розмірами і не може (практично) зростати за бажанням.
Ран Г.

Відповіді:


8

Багато широко використовуваних кодів двійкових даних - це об'єднані коди, які складаються з використанням двох кодів, що виправляють помилки. Внутрішній код знаходиться над двійковим алфавітом, а зовнішній код знаходиться в алфавіті, символи якого відповідає кодовою словами внутрішнього коду. Це дозволяє використовувати чудову потужність більших розмірів алфавіту для кодування бінарних повідомлень без "обману".

Стандартне визначення мінімальної відстані є природним для використання при розгляді об'єднаних кодів, а також у теорії кодів великих розмірів алфавіту. "Обман" було б лише якщо ви використали ці числа для порівняння двійкового коду з великим алфавітом, який кодує двійковий вхід, не використовуючи також внутрішній код; теоретики кодування досить розумні, щоб цього не робити (і я вважаю, що з часу винайдення об'єднаних кодів коди великого алфавіту часто використовуються разом із внутрішнім кодом, але великі алфавітні коди також дуже хороші для виправлення помилок у розривних каналах, таких як як компакт-диски, оскільки велика кількість послідовних помилок бітів вплине лише на кілька «символів»).


Петро, ​​дякую за відповідь. Чи не є правдою, що для об'єднаного коду коефіцієнт (бітової) помилки не перевищує 1/2? тож цей метод просто дозволяє нам наблизитись до 1/2, зберігаючи ефективність декодування, правда?
Ран Г.

@Ran: Для двійкового коду частота помилок бітів не може перевищувати 1/2. З'єднані коди не повинні бути двійковими. Але це нітрозування; ваш коментар по суті правильний.
Пітер Шор
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.