Як зрозуміти, що MLE Variance є упередженим у розподілі Гаусса?


12

PRML ілюстрація того, як виникає упередженість при використанні максимальної ймовірності для визначення дисперсії гаусса

Я читаю PRML, і картину не розумію. Скажіть, будь ласка, кілька підказок, щоб зрозуміти картину, і чому MLE дисперсії в гауссовій розподілі упереджений?

формула 1,55: формула 1.56

μMLE=1Nn=1Nxn
σMLE2=1Nn=1N(xnμMLE)2

Будь ласка, додайте тег самонавчання.
СтатистикаСтудент

2
чому для кожного графа мені видно лише одну синю точку даних? btw, поки я намагався редагувати переповнення двох підписок у цій публікації, система вимагає "принаймні 6 символів" ... ніяково.
Zhanxiong

Що ви насправді хочете зрозуміти, картина чи чому оцінка відхилення MLE упереджена? Перший дуже заплутаний, але я можу пояснити другий.
TrynnaDoStat

так, я знайшов у новій версії, кожен графік має дві сині дані, мій pdf-
файл

@TrynnaDoStat вибачте за моє запитання не ясно. що я хочу знати, це те, чому оцінка дисперсії MLE є упередженою. і як це виражено в цьому графіку
ningyuwhut

Відповіді:


25

Інтуїція

Упередженість "походить від" (це зовсім не технічний термін) того, що є упередженим для . Природне питання полягає в тому, "ну яка інтуїція, чому є упередженою для "? Інтуїція полягає в тому, що в зразку, що не має квадрата, іноді ми пропускаємо справжнє значення оцінкою, а іноді занижньою оцінкою. Але, не квадратизуючи, схильність до переоцінки та недооцінки скасує одне одного. Однак, коли ми квадратно схильність до недооцінки (пропускаємо справжнє значенняE[x¯2]μ2E[x¯2]μ2μx¯μза від’ємним числом) також стає квадратним і, таким чином, стає додатним. Таким чином, він більше не скасовується і є незначна тенденція до завищення вартості.

Якщо інтуїція позаду , чому зміщена для до сих пір неясно, спробувати зрозуміти інтуїцію за нерівності Йєнсена (гарне інтуїтивне пояснення тут ) і застосувати його до .x2μ2E[x2]

Доведемо, що дисперсія MLE для вибірки iid є упередженою. Тоді ми аналітично перевіримо свою інтуїцію.

Доказ

Нехай .σ^2=1Nn=1N(xnx¯)2

Ми хочемо показати .E[σ^2]σ2

E[σ^2]=E[1Nn=1N(xnx¯)2]=1NE[n=1N(xn22xnx¯+x¯2)]=1NE[n=1Nxn2n=1N2xnx¯+n=1Nx¯2]

Використовуючи той факт, що і ,n=1Nxn=Nx¯n=1Nx¯2=Nx¯2

1NE[n=1Nxn2n=1N2xnx¯+n=1Nx¯2]=1NE[n=1Nxn22Nx¯2+Nx¯2]=1NE[n=1Nxn2Nx¯2]=1NE[n=1Nxn2]E[x¯2]=1Nn=1NE[xn2]E[x¯2]=E[xn2]E[x¯2]

З останнього кроку, що слідує за тим, що через те, що рівний поперечно через те, що виходить з одного і того ж розподілу.E[xn2]n

Тепер пригадайте визначення дисперсії, яке говорить . Звідси ми отримуємо наступнеσx2=E[x2]E[x]2

E[xn2]E[x¯2]=σx2+E[xn]2σx¯2E[xn]2=σx2σx¯2=σx2Var(x¯)=σx2Var(1Nn=1Nxn)=σx2(1N)2Var(n=1Nxn)

Зауважте, що ми підкреслили константу під час виведення її з . Зверніть на це особливу увагу!1NVar()

σx2(1N)2Var(n=1Nxn)=σx2(1N)2Nσx2=σx21Nσx2=N1Nσx2

що, звичайно, не дорівнює .σx2

Аналітично перевірте нашу інтуїцію

Ми можемо дещо перевірити інтуїцію, припустивши, що ми знаємо значення і підключивши її до вищенаведеного доказу. Оскільки ми тепер знаємо , у нас більше немає необхідності оцінювати і тому ми ніколи не переоцінюємо його за допомогою . Подивимось, що це "видаляє" зміщення у .μμμ2E[x¯2]σ^2

Нехай .σ^μ2=1Nn=1N(xnμ)2

З наведеного вище доказування виберемо з замінивши на справжнє значення .E[xn2]E[x¯2]x¯μ

E[xn2]E[μ2]=E[xn2]μ2=σx2+E[xn]2μ2=σx2

яка неупереджена!


3
+1 Можливо, варто зазначити, що для вашої демонстрації не потрібно, щоб мав розподіл Гаусса. (Однак для інших розподілів вибіркова дисперсія може бути не MLE для параметра дисперсії.)X
whuber

1
Дякуємо за ваше пояснення. Мені потрібен певний час, щоб це зрозуміти. Окрім того, я знайшов помилку в рівняннях.може ви це підтвердили? Дякую!
ningyuwhut

@ whuber - Не впевнений, чому ти сказав ".. для демонстрації не потрібно, щоб мав розподіл Гаусса." Ми б не говорили про дисперсійне рішення ML для кожного розподілу, скажімо, біноміальне розподіл. Тож явно ми припускаємо, що розподіл X має дисперсію як один із параметрів. X
КГатак
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.