Коли трактується відносна, нормалізована функція корисності як pmf, що таке тлумачення ентропії Шеннона чи інформації Шеннона?


10

Припустимо, Ω - це набір взаємовиключних результатів дискретної випадкової величини, а f - корисна функція, де 0<f(ω)1 , Ωf(ω)=1 і т.д.

Коли f рівномірно розподілений по Ω і f - функція маси ймовірностей , ентропія Шеннона є максимальним (=лпрог|Ом|), і коли одинелементів вQмає всіті«и мас, ентропія Шеннона зводитьсямінімуму (0, на самом деле). Це відповідає інтуїції щодонесподіваної(абозменшення невизначеності) та результатів таневизначеності(абоочікуваної несподіваності) та випадкових змінних:H(Ω)=Ωf(ω)log1f(ω)=log|Ω|)Ωf0

  • Коли рівномірно розподілено, невизначеність максимальна, і чим більше результатів для рівномірного розподілу маси, тим ми невизначеніші.f
  • Коли f має всю свою масу зосередженою на одному результаті, ми не маємо невизначеності.
  • Коли ми присвоюємо результату ймовірність 1 , ми не отримуємо ніякої інформації ("не здивовані"), коли ми її фактично спостерігаємо.
  • Коли ми присвоюємо результату ймовірність все ближче і ближче до 0 , спостереження за його фактичним явищем стає все більш інформативним ("дивовижним").

(Все це нічого не говорить про набагато конкретніше - але менш епістемічне - кодування інтерпретації інформації / ентропії Шеннона.)

Однак, коли f має інтерпретацію корисної функції , чи існує чуттєва інтерпретація log1f(ω)f(ω)log1f(ω)

  • fΩf
  • функція корисності, де один результат має всю корисність, а решта не мають жодного (наскільки перекошений утиліта, наскільки це можливо), відповідає дуже сильним відносним уподобанням - відсутністю байдужості.

Чи існує посилання на це? Я щось пропустив щодо обмежень порівняння функцій маси ймовірностей та нормалізованих, відносних утиліт над дискретними випадковими змінними?

* Я знаю криві байдужості і не бачу, наскільки вони можуть відповідати моєму питанню з різних причин, починаючи з моєї уваги на категоричному просторі вибірки і з того, що мене не цікавить «байдужість» сама по собі, а швидше як інтерпретувати утиліти як імовірності та як інтерпретувати функціонали на ймовірності, коли (дискретний) "розподіл ймовірностей", про який йдеться, фактично або (додатково) має інтерпретацію функції корисності.


n

Відповіді:


3

Перед ентропією Шеннона Обговорення, є ще один момент , який слід обговорити: виявляється , що ви маєте у вигляді кардинальної корисності , а не порядкової .

"Нормалізовані" функції утиліти можна зрозуміти в обох випадках. Але поняття "відносна перевага" можна визначити і виміряти лише в контексті кардинальної корисності.

І питання виникає не в двох описаних вами крайностях, а у всіх можливих проміжних випадках.

A,B,C

V(A)=1,V(B)=9,V(C)=90

За звичайною корисністю це просто нам це говорить

A<prB<prC

100

UV(A)=0.01,UV(B)=0.09,UV(C)=0.9

Але за порядкової корисності ми могли б дуже добре використовувати іншу функцію корисності, яка була б призначена

W(A)=31,W(B)=32,W(C)=37

і отримати

UW(A)=0.31,UW(B)=0.32,UW(C)=0.37

VW

WV

Чи знайомі ви з проблемами кардинальної корисності?


VU

3

Після обміну з ОП в іншій моїй відповіді давайте трохи попрацюємо з його підходом.

XX={x1,...,xk}Pr(X=xi)=pi,i=1,...,k

Значення в підтримці також вводяться в реально оціненій функції корисної корисності, . Потім ми розглянемо нормовану функцію корисностіXu(xi)>0i

(1)w(X):w(xi)=u(xi)i=1ku(xi),i=1,...,k

і нам це кажуть

(2)w(xi)=pi

Зауважимо, що ми не просто робимо зауваження, що нормалізована негативна дискретна функція кінцевої області задовольняє властивості функції масової ймовірності в цілому - ми конкретно припускаємо, що має функціональну форму PMF випадкової змінна, значення якої приймає як вхідні дані.w(xi)w(xi)

Оскільки є вимірюваною функцією випадкової величини, то вона також є випадковою змінною. Тож ми можемо осмислено розглянути речі на кшталт очікуваного значення. Використовуючи Закон несвідомого статистичного діячаw(xi)

(3)E[w(X)]=i=1kpiw(xi)=i=1kpi2

Це випукла функція, і якщо ми спробуємо її екстремізувати над в рамках обмеження ми легко отримаємоpii=1kpi=1

(4)argminE[w(X)]=p:p1=p2=...=pk=1/k

і ми отримали загальний результат:

Нормована функціональна функція, як визначено вище, має мінімальне очікуване значення, якщо розподіл є рівномірним.X

Очевидно, що в такому випадку буде постійною функцією , виродженою випадковою змінною з і нульовою дисперсією.w(X) E[w(X)]=1/k

Звернемося до ентропії Шеннона, яка є центром уваги ОП. Для обчислення Ентропії Шеннона потрібна функція маси ймовірності випадкової величини ... тому ми повинні знайти ПМП випадкової величини ... w(X)

Але моє враження, що це не те, що має на увазі ОП. Швидше за все, він розглядає Ентропію Шеннона як метрику, яка має деякі бажані алгебраїчні властивості і, можливо, може компактно вимірювати щось значуще.

Це робилося раніше в економіці, конкретно в промисловій організації, коли були побудовані показники концентрації ринку ("ступінь конкуренції / монополістична структура ринку"). Зазначу два, які тут виглядають особливо актуально.

A) Індекс Херфіндаля, має в якості своїх аргументів на ринкові частки компаній , що працюють на ринку, , тому їх сума єдності з побудови. Його нерасширенная версія єnsi

H=i=1nsi2

що є виразом, який має точно таку ж структуру з очікуваним значенням отриманим вище.w(X)

B) Ентропія Індекс , який має точну математичну форму з ентропією Шеннона.

Re=i=1nsilnsi

Encaoua, D., & Jacquemin, A. (1980). Ступінь монополії, показники концентрації та загрози вступу. Міжнародний економічний огляд, 87-105. , забезпечують аксіоматичне деривацію "допустимих" показників концентрації, тобто вони визначають властивості, якими повинен володіти такий індекс. Оскільки їхній підхід абстрактний, я вважаю, що може бути корисним те, що ОП бажає вивчити та надати сенс.


1

Здається, функція корисності тут не тільки кардинальна, але навіть визначена за шкалою співвідношення. Розглянемо два результати з утилітами 1/4 та 3/4. Зрозуміло, що ми можемо застосувати афінну трансформацію: в цьому випадку утиліти стають 0 і 1. Однак тепер ми змінили ентропію з суто позитивного значення на нулеве!v=v20.5

Таким чином, вам потрібно спочатку надати значущу шкалу співвідношення до вашої утиліти. Один із способів зробити це - дати інтерпретацію природного рівня 0 корисності. Без цієї специфікації ентропія є безглуздою.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.