Припустимо, - це набір взаємовиключних результатів дискретної випадкової величини, а - корисна функція, де , і т.д.
Коли рівномірно розподілений по і - функція маси ймовірностей , ентропія Шеннона є максимальним (=лпрог|Ом|), і коли одинелементів вQмає всіті«и мас, ентропія Шеннона зводитьсямінімуму (0, на самом деле). Це відповідає інтуїції щодонесподіваної(абозменшення невизначеності) та результатів таневизначеності(абоочікуваної несподіваності) та випадкових змінних:
- Коли рівномірно розподілено, невизначеність максимальна, і чим більше результатів для рівномірного розподілу маси, тим ми невизначеніші.
- Коли має всю свою масу зосередженою на одному результаті, ми не маємо невизначеності.
- Коли ми присвоюємо результату ймовірність , ми не отримуємо ніякої інформації ("не здивовані"), коли ми її фактично спостерігаємо.
- Коли ми присвоюємо результату ймовірність все ближче і ближче до , спостереження за його фактичним явищем стає все більш інформативним ("дивовижним").
(Все це нічого не говорить про набагато конкретніше - але менш епістемічне - кодування інтерпретації інформації / ентропії Шеннона.)
Однак, коли має інтерпретацію корисної функції , чи існує чуттєва інтерпретація
- функція корисності, де один результат має всю корисність, а решта не мають жодного (наскільки перекошений утиліта, наскільки це можливо), відповідає дуже сильним відносним уподобанням - відсутністю байдужості.
Чи існує посилання на це? Я щось пропустив щодо обмежень порівняння функцій маси ймовірностей та нормалізованих, відносних утиліт над дискретними випадковими змінними?
* Я знаю криві байдужості і не бачу, наскільки вони можуть відповідати моєму питанню з різних причин, починаючи з моєї уваги на категоричному просторі вибірки і з того, що мене не цікавить «байдужість» сама по собі, а швидше як інтерпретувати утиліти як імовірності та як інтерпретувати функціонали на ймовірності, коли (дискретний) "розподіл ймовірностей", про який йдеться, фактично або (додатково) має інтерпретацію функції корисності.