Висновок у лінійній моделі з умовною гетерокедастичністю


9

Припустимо, я спостерігаю незалежні вектори змінних і і залежну змінну . Я хотів би помістити модель форми: де - деяка додатна величина у два рази диференційована функція, - невідомий параметр масштабування, а - нульова середня, одинична дисперсія гауссова випадкова величина (вважається незалежною від і ). Це по суті встановлення тесту Коенкера на гетероскедастичність (принаймні, наскільки я це розумію).xzy

y=xβ1+σg(zβ2)ϵ,
gσϵxz

У мене є спостережень і , і я хотів би оцінити і . Однак у мене є кілька проблем:nx,zyβ1β2

  1. Я не впевнений, як поставити задачу оцінки як щось на зразок найменших квадратів (я припускаю, що є відомий трюк). Першим моїм здогадком стане щось на зразок але я я не впевнений, як це вирішити чисельно (можливо, це може зробити ітеративний метод квазі-Ньютона).
    minβ1,β2(i=1n(yixiβ1)2g(ziβ2)2)(i=1n1g(ziβ2)2)1,
  2. Припускаючи, що я можу поставити проблему обгрунтовано і знайти деякі оцінки , я хотів би знати розподіл оцінок, щоб, наприклад, я міг виконувати тести на гіпотези. Мені б добре було тестувати два вектори коефіцієнта окремо, але я вважаю за краще якийсь спосіб перевірити, наприклад, для заданих .β^1,β^2 H0:w1β1+w2β2cw1,w2,c

Хороше питання. Чи маєте ви уявлення про те, як виглядає ? це гладко? це стрибки? Замість найменшої площі ви спробували максимальну ймовірність (чи знаєте ви цей документ projecteuclid.org/… ?)g
Робін Жирард

@robin girard: MLE - це гарна ідея для питання 1. Я підозрюю, що для помилок Гаусса MLE дасть ідентичні оцінки, як і мої спеціальні мінімізації. Що стосується , як я зазначив, ми можемо вважати, що він є позитивним та два рази диференційованим. Ми, мабуть, можемо припустити, що він також опуклий, і, можливо, ми можемо вважати, що це аналітично. g
shabbychef

Відповіді:


5

У кілька більш загальному контексті з - мірний вектор -observations (відповідей, або залежні змінні),YnyXn×p матрицяx-спостереження (коваріати або залежні змінні) та θ=(β1,β2,σ) параметри такі, що YN(Xβ1,Σ(β2,σ)) то ймовірність мінус-журналу є

l(β1,β2,σ)=12(YXβ1)TΣ(β2,σ)1(YXβ1)+12log|Σ(β2,σ)|
У питанні ОП: Σ(β2,σ) діагональна з
Σ(β2,σ)ii=σ2g(ziTβ2)2
тому визначальним стає σ2ni=1ng(ziTβ2)2 і результуючий мінус-log-вірогідність стає
12σ2i=1n(yixiTβ1)2g(ziTβ2)2+nlogσ+i=1nlogg(ziTβ2)
Існує кілька способів наблизитись до мінімізації цієї функції (якщо припустимо, що три параметри не залежать від варіантів).
  • Можна спробувати звести до мінімуму функцію за допомогою стандартного алгоритму оптимізації, запам'ятовуючи це обмеження σ>0.
  • Ви можете обчислити профіль мінус-імовірність імовірності (β1,β2) шляхом мінімізації над σ для фіксованих (β1,β2), а потім підключіть отриману функцію до стандартного алгоритму необмеженої оптимізації.
  • Ви можете чергувати оптимізацію для кожного з трьох параметрів окремо. Оптимізація понадσ можна зробити аналітично, оптимізуючи β1 - проблема зваженого найменшого зваженого квадрату та її оптимізація β2 еквівалентно встановленню лінійної моделі, узагальненої гаммою g2 зворотна ланка.

Остання пропозиція мені подобається, оскільки вона ґрунтується на рішеннях, які я вже добре знаю. Крім того, перша ітерація - це те, що я все-таки вважаю за потрібне. Тобто спочатку обчисліть початкову оцінкуβ1 звичайними найменшими квадратами, ігноруючи потенційну гетерокедастичність, а потім прилаштувати гамма-glm до залишків у квадраті, щоб отримати початкову оцінку β2 просто перевірити, чи здається, що більш складна модель коштує. Ітерації, що включають гетерокедастичність у рішення з найменшими квадратами, оскільки ваги можуть покращитись після оцінки.

Що стосується другої частини питання, я, мабуть, розглянути можливість обчислення довірчого інтервалу для лінійної комбінації w1Tβ1+w2Tβ2 або за допомогою стандартної асимптотики MLE (перевірка за допомогою симуляцій, що працює асимптотика), або шляхом завантаження.

Змінити: Під стандартною асимптотикою MLE я маю на увазі використання багатоваріантного нормального наближення до розподілу MLE з коваріаційною матрицею зворотної інформації Фішера. Інформація Фішера - це визначення матриці коваріації градієнтаl. Це взагалі залежить від параметрів. Якщо ви можете знайти аналітичний вираз для цієї кількості, ви можете спробувати підключити MLE. В якості альтернативи, ви можете оцінити інформацію про Фішера за спостереженою інформацією Фішера, яка є гессіанськоюlв MLE. Ваш цікавий параметр - це лінійна комбінація параметрів у двохβ-вектори, отже з наближеної багатоваріантної норми MLE можна знайти нормальне наближення розподілу оцінок, як описано тут . Це дає приблизну стандартну помилку, і ви можете обчислити довірчі інтервали. Це добре описано у багатьох (математичних) книгах зі статистикою, але досить доступною презентацією я можу порекомендувати " По всій вірогідності " Юді Павітана. У будь-якому разі формальне виведення асимптотичної теорії є досить складним і покладається на ряд умов регулярності, і це дає лише дійсні асимптотичнідистрибуції. Отже, якщо ви сумніваєтесь, я б завжди робив якісь симуляції з новою моделлю, щоб перевірити, чи можу я довіряти результатам за реалістичними параметрами та розмірами вибірки. Проста, непараметрична завантажувальна програма, де ви пробите трійки(yi,xi,zi) зі спостережуваного набору даних із заміною може бути корисною альтернативою, якщо процедура встановлення не занадто трудомістка.


то , що є стандартний асимптотик MLE?
shabbychef

@shabbychef, було пізно. Я дав більш детальне пояснення. Зауважте, що для того, щоб асимптотика працювала теоретично, як пояснено, модель повинна бути правильною, а для оцінки повинен бути MLE. Більш загальні результати можна отримати в рамках загальних оціночних функцій та оцінювання рівнянь, див., Наприклад, книгу Квазі-ймовірність та ... Гейда.
NRH
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.