Мені не подобається інформація про Фішера, що вона вимірює і наскільки вона корисна. Крім того, це стосунки з прив'язкою Крамера-Рао мені не видно.
Чи може хтось, будь ласка, дати інтуїтивне пояснення цих понять?
Мені не подобається інформація про Фішера, що вона вимірює і наскільки вона корисна. Крім того, це стосунки з прив'язкою Крамера-Рао мені не видно.
Чи може хтось, будь ласка, дати інтуїтивне пояснення цих понять?
Відповіді:
Тут я пояснюю, чому асимптотичною дисперсією оцінювача максимальної ймовірності є нижня межа Крамера-Рао. Сподіваємось, це дасть деяке розуміння щодо актуальності інформації про Фішера.
Статистичний висновок протікає з використанням функції ймовірності яку ви будуєте з даних. Точкова оцінка θ є значення , яке максимізує L ( & thetas ) . Оцінка θ є випадковою величиною, але це допомагає зрозуміти , що функція правдоподібності L ( θ ) є «випадкової кривої».
Тут ми припускаємо iid-дані, отримані з розподілу , і визначаємо ймовірність L ( θ ) = 1
Параметр має властивість, що він максимізує значення "справжньої" ймовірності, E L ( θ ) . Однак функція "спостережуваної" ймовірності L ( θ ) , побудована з даних, трохи "відключається" від справжньої ймовірності. Однак, як ви можете собі уявити, зі збільшенням кількості вибірки "спостережувана" ймовірність збігається до форми справжньої кривої ймовірності. Це ж стосується похідної вірогідності щодо параметра, функції рахунку ∂ L / ∂ θ . (Якщо коротко розповісти, інформація про Фішера визначає, наскільки швидко спостережувана функція балів переходить у форму справжньої функції рахунку.)
При великому обсязі вибірки, ми припускаємо , що наша оцінка максимальної правдоподібності θ дуже близько до & thetas . Ми збільшити в малій околиці навколо θ і & thetas так , що функція правдоподібності «локально квадратичної».
або
З послідовності оцінки MLE ми це знаємо
в межі.
Тому асимптотично
Таким чином,
Один із способів я розумію інформацію про рибалку - це таке визначення:
Тепер, коли ви робите максимальну оцінку ймовірності (вставте тут "умови регулярності")
Одне, що мені все-таки цікаво, це те, наскільки крутим є ймовірність журналу, а не наскільки крутою є якась інша монотонна функція ймовірності (можливо, це стосується "належних" бальних функцій в теорії рішень? Або, можливо, з аксіомами послідовності ентропії ?).
І коли ви тейлор розширюєте ймовірність журналу про MLE:
Це найінтуїтивніша стаття, яку я бачив досі:
Це пояснюється аналогією Адама та Єви в Едемському саду, кидаючи монетку, щоб побачити, хто має їсти фрукти, і вони запитують себе, наскільки великий зразок необхідний для досягнення певного рівня точності в їх оцінці, і вони виявляють цю межу ...
Хороша історія з глибоким повідомленням про реальність справді.
Хоча пояснення, подані вище, дуже цікаві, і мені подобалося переглядати їх, але я відчуваю, що природа нижньої межі Крамера-Рао найкраще пояснилася мені з геометричної точки зору. Ця інтуїція є резюме поняття концентрації еліпсів з 6-ї глави книги Шарфа про статистичну обробку сигналів .
; Е & thetas ;
.
Тепер подумайте про контурні графіки цього розподілу для . Будь-яке обмеження верхньої межі щодо ймовірності (тобто ) призведе до виникнення еліпсоїда з центром у з фіксованим радіусом . Неважко показати, що між радіусом еліпсоїда та бажаною ймовірністю існує співвідношення один на один . Іншими словами, близький до в межах еліпсоїда, визначеного радіусом з вірогідністюthetas ; ∫ F ( & thetas ; ) d & thetas ; & le ; Р г & thetas ; г г Р г & thetas ; & thetas ; г Р г. Цей еліпсоїд називають концентраційним еліпсоїдом.
Розглядаючи вищеописаний опис, про CRLB можна сказати наступне. Серед усіх неупереджених оцінювачів CRLB являє собою оцінювач з коваріацією який за фіксованою ймовірністю "близькості" (як визначено вище) має найменшу концентрація еліпсоїда. На малюнку нижче представлена двовимірна ілюстрація (натхненна ілюстрацією в книзі Шарфа ).ΣзглбРг