Чому люди використовують термін «маса доказів» і чим він відрізняється від «точкової взаємної інформації»?


11

Тут "маса доказів" (WOE) - поширений термін у опублікованій науковій та політичній літературі, найчастіше розглядається в контексті оцінки ризику, визначеного:

ш(е:год)=журналp(е|год)p(е|год¯)

де докази, h - гіпотеза.егод

Тепер я хочу знати, яка головна відмінність від PMI (точкова взаємна інформація)

pмi(е,год)=журналp(е,год)p(е)p(год)

Я вважаю, що цей термін був введений у цій роботі: projecteuclid.org/…
JohnRos

@JohnRos: Хоча це цікавий документ, вагома кількість доказів там не названа. IJ Good має книгу на ній, надруковану в 1950 році, і каже, що він дізнався цю концепцію від A Turing в Bletchley Park!
kjetil b halvorsen

Зауважте, що горе, як визначено тут, - це лише коефіцієнт вірогідності журналу. Багато згадок про це на цьому сайті - це інша концепція, дивіться stats.stackexchange.com/questions/462052/…
kjetil b halvorsen

Відповіді:


5

Хоча вони схожі, вони є зовсім різними речами. Почнемо з основних відмінностей.

  • - це щось інше як в PMI, так і в WOEгод
    Зауважте термін у PMI. Це означає, що h - випадкова величина, з якої можна обчислити ймовірність. Для байесівців це не проблема, але якщо ви не вірите, що гіпотези можуть матиапріорнуймовірність,ви навіть не можете написати ІПП для гіпотези та доказів. У WOE h - параметр розподілу і вирази завжди визначаються.p(год)hh

  • PMI симетричний, WOE не
    тривіально, . Однак w ( h : e ) = log p ( h | e ) / p ( h | ˉ e ) не потрібно визначати через термін ˉ e . Навіть коли він є, він взагалі не дорівнює w ( e : hpmi(e,h)=pmi(h,e)ш(год:е)=журналp(год|е)/p(год|е¯)е¯ .ш(е:год)

Крім цього, WOE та PMI мають подібність.

Вага доказів говорить про те, наскільки докази говорять на користь гіпотези. Якщо це 0, це означає, що він не виступає ні за, ні проти. Чим вона вища, тим більше вона підтверджує гіпотезу , і чим вона нижча, тим більше вона підтверджує ˉ hгодгод¯ .

Взаємна інформація кількісно визначає, як відбувається подія ( чи h)егод ) щось говорить про виникнення іншої події. Якщо вона дорівнює 0, події є незалежними, і виникнення одного не говорить нічого про інше. Чим він вищий, тим частіше вони спільно виникають, і чим нижчим він тим більше взаємовиключний.

Як щодо випадків, коли гіпотеза також є випадковою змінною і обидва варіанти є дійсними? Наприклад , в communiction над бінарним каналом з шумом, гіпотеза ч випромінюваним сигнал для декодування і доказ сигналу. Скажімо , що ймовірність перекидання становить 1 / 1 000 , так що якщо ви отримуєте 1 , то WOE для 1 є журнал 0,999 / 0,001 = 6,90 . З іншого боку, PMI залежить від надійності випромінювання 1 . Ви можете переконатися, що коли ймовірність випромінювання 1 має тенденцію до 0, PMI має тенденцію до 6,90годгод1/100011журнал0,999/0,001=6.90116.90, тоді як вона має тенденцію до коли ймовірність випромінювання a 1 має тенденцію до 1 .011

Ця парадоксальна поведінка ілюструє дві речі:

  1. Жоден з них не підходить для здогадки про викиди. Якщо вірогідність випускання падає нижче 1 / 1000 , то , швидше за все , випромінювання 0 навіть при отриманні 1 . Однак за малих вірогідностей випромінювання 1 і WOE, і PMI близькі до 6,90 .11/10000116.90

  2. ПМІ - це отримання інформації (Шеннона) щодо реалізації гіпотези, якщо гіпотеза майже впевнена, то ніякої інформації не отримується. WOE - це оновлення наших попередніх коефіцієнтів , яке не залежить від значення цих шансів.


Це може бути примітною річчю, але як у WMI як ви визначаєте не визначаючи p ( h ) ? Ви не збираєтеся з p ( e | h ) = p ( e , h )p(е|год)p(год) ? p(е|год)=p(е,год)p(год)
Майк Батталья

1
годp(е|год)p(h)
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.