Інтуїтивна причина, чому інформація про Фішера у біномалі обернено пропорційна


12

Це бентежить / дує мій погляд, що біноміал має відмінність, пропорційну p(1p) . Еквівалентно, що інформація про Фішера пропорційна 1p(1p) . У чому причина цього? Чому інформація про Фішера мінімізована при p=0.5 ? Тобто, чому висновок найскладніший при p=0.5 ?

Контекст:

Я працюю над калькулятором розміру вибірки, і формула для N , необхідного розміру вибірки, - це коефіцієнт, що збільшується, p(1p) , результат оцінки дисперсії в деривації.


3
Дисперсія Бернуллі випадкової величини з параметром є та біноміальної випадковою величиною, що є сума незалежних бернулліевимі випадкових величин, має дисперсію , яка є сумою дисперсій . Що стосується того, чому , розглянемо дисперсію як момент інерції щодо центру мас мас та при та відповідно. p ( 1 - p ) N N p ( 1 - p ) Npp(1p)NNp(1p)N p 1 - p 1 0p(1p)p1p10
Діліп Сарват

Так, я сказав пропорційно , ігнорувати . Чи можете ви детальніше розглянути свою другу частину, це здається цікавою перспективою. Np(1p)N
Cam.Davidson.Pilon

Відповіді:


13

Інтуїтивно зрозуміти, що дисперсія максимальна при , візьміть дорівнює (відповідно ). Тоді зразок з , ймовірно, містить багато 's (відповідно ' s) і лише кілька 's (відповідно ' s). Варіацій там мало.p 0,99 p = 0,01 X Бернуллі ( p ) 1 0 0 1p=0.5p0.99p=0.01XBernoulli(p)1001


Це правда. Можливо, я повинен запитати: Чому інформація про рибалки мінімізована на ? p=0.5, тобто чому висновок найскладніший при ? Я оновлю своє запитання, щоб це відобразити. p=0.5
Cam.Davidson.Pilon

3
Знову дуже інтуїтивно зрозуміло: чим більше варіацій, тим більше інформації вам потрібно.
ocram

9

Висновок "важкий" для 'посередині, тому що зразок з поблизу середини відповідає більш широкому діапазону . Близько кінців не може бути так далеко - тому що кінці є "бар'єрами", за якими не може вийти.рpp^рpp

Я думаю, що інтуїція простіша, якщо дивитися на дисперсію.

Інтуїція про величину дисперсії двочлена в середині та невеликої на кінцях є досить простою: біля кінцевих точок немає місця для "розповсюдження" даних. Розглянемо малий - оскільки середнє значення близьке до 0, варіація не може бути великою - для даних до середнього це може бути лише далеко від середнього.рpp

Розглянемо дисперсію пропорційної вибірки в серії випробувань Бернуллі. Тут . Таким чином, тримаючи фіксованих і змінюючи , варіація значно менша для поблизу 0:п р рVar(p^)=p(1p)/nnpp

Частка вибірки у двочленних зразках - тут просто випадкова рівномірна; у блакитному корпусі є середнє значення 0,03, у чорному - 0,5 (додається трохи тремтіння, щоб точки не накопичувалися занадто багато і втрачали деталі) yвведіть тут опис зображення

Відповідні функції ймовірності: введіть тут опис зображення

У кожному випадку зверніть увагу на лінії, що позначають середню. Оскільки середня лінія стає більше "застрягла" проти бар'єру, точки нижче середньої можна отримати лише невеликим шляхом внизу.

Як результат, точки вище середньої величини зазвичай не можуть надто далеко над середньою (бо в іншому випадку середня зміститься!). Біля кінцеві точки насправді не "підштовхують" так, як це відбувається, коли є бар'єр.p=12

введіть тут опис зображення

Ми одночасно бачимо, чому розподіл повинен бути перекошений на кінцях; щоб випадкова величина була деякою частиною часу більше, ніж вище середньої, повинно бути відповідно більше ймовірності, що знижується приблизно на середній, наскільки це може піти. Цей навісний бар'єр при 0 дає як обмеження змінності, так і призводить до косості. рp^p

[Ця форма інтуїції не говорить про те, чому вона приймає саме таку функціональну форму, але це чітко дає зрозуміти, чому дисперсія повинна бути невеликою біля кінців, а менше бути ближче до кінців, на які ви йдете.]


Як результат, точки вище середньої величини зазвичай не можуть надто далеко над середньою (бо в іншому випадку середня зміститься!). Близько p = 12 кінцеві точки насправді не «підштовхують це так само». Занадто ідеально. Це чудове пояснення.
Cam.Davidson.Pilon

7

Інформація про Фішера - це дисперсія функції рахунку. І це пов’язано з ентропією. Для випробування Бернуллі ми отримуємо один біт за кожне випробування. Тож ця інформація про Фішера має подібні властивості, як і ентропія Шеннона, як ми могли б очікувати. Зокрема, ентропія має максимум у 1/2, а інформація - мінімум у 1/2.


А, ще одна велика перспектива. Я не думав про це з ентропічного погляду!
Cam.Davidson.Pilon
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.