Деякі роки тому я писав про це статті для своїх студентів (іспанською мовою), тому можу спробувати переписати ці пояснення тут. Я розгляну IRLS (ітеративно переосмислені найменші квадрати) через низку прикладів підвищення складності. Для першого прикладу нам потрібна концепція сім'ї масштабу локації. Нехай - функція густини, яка в якомусь сенсі зосереджена на нулі. Ми можемо побудувати сімейство густин, визначивши
де - параметр масштабу і f ( x ) = f ( x ; μ , σ ) = 1f0σ>0μf0N(μ,σ)
f(x)=f(x;μ,σ)=1σf0(x−μσ)
σ>0μ- параметр розташування. У моделі помилки вимірювання, де зазвичай термін помилки моделюється як нормальний розподіл, ми можемо замість цього звичайного розподілу використовувати сімейство масштабів локації, як побудовано вище. Коли є стандартним нормальним розподілом, конструкція вище дає сімейство .
f0N(μ,σ)
Зараз ми будемо використовувати IRLS на деяких простих прикладах. Спочатку ми знайдемо оцінки ML (максимальна ймовірність) в моделі
з щільністю
Коші розподіляє сімейство локацій (тому це сім'я місцеположень). Але спочатку деякі позначення. Оцінювач найменш зважених квадратів задається
де - деякі ваги. Ми побачимо, що ML-оцінювач може бути виражений у тому самому вигляді, що іf ( y ) = 1
Y1,Y2,…,Yni.i.d
ц ц ц * = Σ п я = 1 ш I у If(y)=1π11+(y−μ)2,y∈R,
μμшяцшяepsiя=уя - М . L(y;μ)=(1мк∗= ∑нi = 1шiуi∑нi = 1шi.
шiмкwiдеяка функція залишків
Функцію ймовірності задає
і функція вірогідності логотипу задається
Його похідна щодо є
де . Пишіть
ϵi=yi−μ^.
l(y)=-L(y;μ)=(1π)n∏i=1n11+(yi−μ)2
μ ∂ l ( y )l(y)=−nlog(π)−∑i=1nlog(1+(yi−μ)2).
μ ϵi=yi-μf0(ϵ)=1∂l(y)∂μ===0−∑∂∂μlog(1+(yi−μ)2)−∑2(yi−μ)1+(yi−μ)2⋅(−1)∑2ϵi1+ϵ2i
ϵi=yi−μ f ′ 0 (ϵ)=1f0(ϵ)=1π11+ϵ2 і , отримуємо
Знаходимо
де ми використовували визначення
f′0(ϵ)=1π−1⋅2ϵ(1+ϵ2)2f′0(ϵ)f0(ϵ)=−1⋅2ϵ(1+ϵ2)211+ϵ2=−2ϵ1+ϵ2.
∂l(y)∂μ===−∑f′0(ϵi)f0(ϵi)−∑f′0(ϵi)f0(ϵi)⋅(−1ϵi)⋅(−ϵi)∑wiϵi
wi=f′0(ϵi)f0(ϵi)⋅(−1ϵi)=−2ϵi1+ϵ2i⋅(−1ϵi)=21+ϵ2i.
Пам'ятаючи, що
ми отримуємо рівняння
яке є оціночним рівнянням IRLS. Зауважте, що
ϵi=yi−μ∑wiyi=μ∑wi,
- Ваги завжди позитивні.wi
- Якщо залишок великий, ми надаємо меншу вагу відповідному спостереженню.
Щоб обчислити оцінювач ML на практиці, нам потрібно початкове значення , ми могли б використовувати медіану, наприклад. За допомогою цього значення обчислюємо залишки
і ваги
Нове значення задається
Продовжуючи таким чином, ми визначаємо
і
Розрахункове значення при проходженні алгоритму стає
ε ( 0 ) я =уя-μ^(0)
ϵ(0)i=yi−μ^(0)
μw(0)i=21+ϵ(0)i.
μ^ϵ ( j ) i =yi-μ^(1)=∑w(0)iyi∑w(0)i.
ϵ(j)i=yi−μ^(j)
w(j)i=21+ϵ(j)i.
j+1μ^(j+1)=∑w(j)iyi∑w(j)i.
Продовжуючи, поки послідовність
сходиться.
μ^(0),μ^(1),…,μ^(j),…
Зараз ми вивчаємо цей процес із більш загальним сімейством розташування та масштабу, , з меншими деталями. Нехай не залежать від щільності вище. Визначте також . Функція вірогідності логгізму -
Написавши , зауважте, що
та
Обчислення похідної логічності
f(y)=1σf0(y−μσ)Y1,Y2,…,Ynϵi=yi−μσ
l(y)=−n2log(σ2)+∑log(f0(yi−μσ)).
ν=σ2∂ϵi∂μ=−1σ
∂ϵi∂ν=(yi−μ)(1ν−−√)′=(yi−μ)⋅−12σ3.
∂l(y)∂μ=∑f′0(ϵi)f0(ϵi)⋅∂ϵi∂μ=∑f′0(ϵi)f0(ϵi)⋅(−1σ)=−1σ∑f′o(ϵi)f0(ϵi)⋅(−1ϵi)(−ϵi)=1σ∑wiϵi
і прирівнюючи це до нуля дає те саме рівняння, що оцінюється, як і перший приклад. Потім шукаємо оцінювач для :
σ2^σ2∂l(y)∂ν=====−n21ν+∑f′0(ϵi)f0(ϵi)⋅∂ϵi∂ν−n21ν+∑f′0(ϵi)f0(ϵi)⋅(−(yi−μ)2σ3)−n21ν−121σ2∑f′0(ϵi)f0(ϵi)⋅ϵi−n21ν−121ν∑f′0(ϵi)f0(ϵi)⋅(−1ϵi)(−ϵi)⋅ϵi−n21ν+121ν∑wiϵ2i=!0.
веде до оцінювача
Ітеративний алгоритм, описаний вище, може бути використаний і в цьому випадку.
σ2^=1n∑wi(yi−μ^)2.
Далі ми даємо числовий іспит за допомогою R для подвійної експоненціальної моделі (з відомою шкалою) та даних y <- c(-5,-1,0,1,5)
. Для цих даних справжнє значення оцінювача ML становить 0. Початкове значення буде mu <- 0.5
. Один прохід алгоритму є
iterest <- function(y, mu) {
w <- 1/abs(y-mu)
weighted.mean(y,w)
}
з цією функцією можна експериментувати, виконуючи ітерації "вручну". Тоді ітераційний алгоритм можна виконати
mu_0 <- 0.5
repeat {mu <- iterest(y,mu_0)
if (abs(mu_0 - mu) < 0.000001) break
mu_0 <- mu }
Вправа: Якщо модель являє собою розподіл з параметром масштабу покажіть, що ітерації задаються вагою
Вправа: Якщо щільність логістична, покажіть ваги, задані
σ w itkσw(ϵ)=1-eϵ
wi=k+1k+ϵ2i.
w(ϵ)=1−eϵ1+eϵ⋅−1ϵ.
На даний момент я залишу його тут, продовжу цю посаду.