Коли ви говорите, що "вміст інформації може залишатися колишнім", ви маєте на увазі інформацію в загальному сигналі чи інформацію потрібного сигналу? Сподіваємось, це відповість на обидва випадки. Я знаю, що ентропія Шеннона набагато краще, ніж Колмогоров, тому я використаю це, але, сподіваюся, логіка перекладе.
Припустимо, , Ваш сумарний сигнал ( ), складається з суми Вашого корисного сигналу і шуму вашого компонента . Назвіть ентропія . Як ви вже говорили, шум додає ентропії до системи, збільшуючи її складність. Однак це не обов'язково лише тому, що ми більш невпевнені в інформаційному вмісті сигналу, а тому, що в цілому сигнал більше невизначений. Якщо SNR типу вимірює, наскільки ми впевнені, що таке , то вид заходів, наскільки добре ми можемо передбачити майбутні стани на основі поточного стануX S N H S H ( X ) X XХ= S+ NХSNНSН( X)ХХ. Ентропія стосується того, наскільки складний весь сигнал, незалежно від складу шуму проти нешуму.
Якщо ви збільшуєте SNR, видаляючи шум (ослаблення ), ви зменшуєте загальну складність сигналу і, таким чином, його ентропію. Ви не втратили інформацію , передану на , тільки (імовірно безглуздих) інформації , яку несе . Якщо - випадковий шум, то, очевидно, він не несе змістовної інформації, але для опису стану потрібен певний обсяг інформації , який визначається кількістю станів, в яких може перебувати N, та ймовірністю того, що він знаходиться в кожен із цих штатів. Це ентропія.X S N N NNХSNNN
Ми можемо розглянути два розподіли Гаусса з різними відхиленнями, скажімо, один має дисперсію а другий - дисперсію . Тільки дивлячись на рівняння розподілу Гаусса, ми бачимо, що розподіл має максимальну ймовірність, що є лише -м значенням distr. І навпаки, це означає, що є більша ймовірність того, що distr прийме значення, відмінні від середнього, або що є більше впевненості, що розподіл прийме значення поблизу середнього. Отже, розподіл має меншу ентропію, ніж100 В a r = 100 11100Va r = 100 var=1Var=100Var=1Var=1Var=100110v a r = 1Va r = 100Va r = 1Va r = 1Va r = 100 розповсюдження.
Ми встановили, що більша дисперсія означає більш високу ентропію. Дивлячись на поширення помилок, також вірно, що (рівний незалежному , ). Якщо , то для ентропії , . Оскільки (опосередковано) є функцією дисперсії, ми можемо трохи змінити речі, щоб сказати . Для спрощення ми говоримо, що і незалежні, тому . Покращений SNR часто означає послаблення шумової потужності. Цей новий сигнал з більш високим SNR буде тоді , дляX Y X = S + N H H ( X ) = H ( S + N ) H H ( V a r [ X ] ) = H ( V a r [ S +Va r ( X+ Y) > = Va r ( X) + Va r ( Y)ХYХ= S+ NHH(X)=H(S+N)HS N H ( V a r [ X ] ) = H ( V a r [ S ] + V a r [ N ] ) X = S + ( 1H(Var[X])=H(Var[S+N])SNH(Var[X])=H(Var[S]+Var[N])k>1H(Var[X])=H(Var[S]+(1/k)2∗Var[N])k1Var[N]Var[N]Var[S+N]X=S+(1k)Nk>1 . Потім ентропія стає . більший за , тому зменшиться, коли N ослаблено. Якщо зменшується, то і , а отже, , призводить до зменшення .H(Var[X])=H(Var[S]+(1/k)2∗Var[N])k1Var[N]Var[N]Var[S+N]H ( X )Var[X]H(X)
Не дуже стисло, вибачте. Коротше кажучи, «s ентропія зменшується при збільшенні SNR, але ви нічого не зробили для » s інформації. Зараз я не можу знайти джерела, але існує метод обчислення SNR та взаємної інформації (двовимірний показник, подібний ентропії) один до одного. Можливо, головним чином є те, що SNR та ентропія не вимірюють одне і те ж.SXS