Інші об'єктивні оцінки, ніж BLUE (рішення OLS) для лінійних моделей


15

Для лінійної моделі рішення OLS забезпечує найкращий лінійний неупереджений оцінювач параметрів.

Звичайно, ми можемо торгувати ухилом для меншої дисперсії, наприклад, регресія хребта Але моє запитання стосується відсутності упередженості. Чи існують якісь загальноприйняті інші оцінки, які є неупередженими, але з більшою дисперсією, ніж оцінені параметри OLS?

Якби у мене був величезний набір даних, я, звичайно, міг би його відібрати і оцінити параметри з меншими даними та збільшити дисперсію. Я припускаю, що це може бути корисно гіпотетично.

Це скоріше риторичне запитання, тому що коли я прочитав про ОКРУТНІ оцінки, гірша альтернатива не надається. Я здогадуюсь, що надання гірших альтернатив також може допомогти людям краще зрозуміти силу СВІЙЛИХ оцінювачів.


А як щодо максимальної оцінки вірогідності? Наприклад, якщо ви вважаєте, що ваші дані відібрані з розподілу із відносно низьким параметром свободи ( t ( 3 ) або t ( 4 ) можуть бути характерними для фінансової віддачі), максимальний показник ймовірності не збігатиметься з OLS, але я думаю все одно було б неупереджено. тt(3)т(4)
Річард Харді


1
@ RichardHardy, я також спробував MLE з результатами, які ви очікували.
Крістоф Ганк

Відповіді:


19

Одним із прикладів, що спадає на думку, є деякий оцінювач GLS, який зважує спостереження по-різному, хоча це не обов’язково, коли допущення Гаусса-Маркова виконуються (що статистик може не знати, що має місце в цьому випадку, і, отже, застосовувати все-таки застосовує GLS).

Розглянемо випадок регресії yi , i=1,,n на константі для ілюстрації (легко узагальнюється до загальних оцінок GLS). Тут {yi} передбачається випадковою вибіркою з популяції із середнім μ та дисперсією σ2 .

Тоді ми знаємо , що МНК тільки β = ˉ у , вибіркове середнє. Для того, щоб підкреслити , що кожен пункт спостереження зважених з вагою 1 / п , написати це як β = п Е я = 1 1β^=y¯1/n

β^=i=1n1nyi.
Добре відомощоVar(β^)=σ2/n.

β~=i=1nwiyi,
iwi=1
E(i=1nwiyi)=i=1nwiE(yi)=i=1nwiμ=μ.
wi=1/ni

L=V(β~)λ(iwi1)=iwi2σ2λ(iwi1),
wi2σ2wiλ=0iL/λ=0 дорівнює iшi-1=0. Розв’язування першого набору похідних дляλ і прирівнюючи їх врожайність шi=шj, з чого випливає шi=1/н мінімізує дисперсію, вимагаючи, щоб ваги дорівнювали одиниці.

Ось графічна ілюстрація з невеликого моделювання, створеного за допомогою коду нижче:

EDIT: У відповідь на пропозиції @ kjetilbhalvorsen та @ RichardHardy я також включаю медіану уi, MLE параметра розташування pf при (4) розподілі (я отримую попередження про те, In log(s) : NaNs producedщо я не перевіряв далі) та оцінку Губера в графіку.

enter image description here

Ми спостерігаємо, що всі оцінювачі здаються неупередженими. Однак оцінювач, який використовує вагишi=(1±ϵ)/носкільки ваги для будь-якої половини вибірки є більш змінними, як і медіана, MLE розподілу t і Оцінювач Губера (останній лише трохи, див. також тут ).

Те, що останні три перевищують рішення OLS, не має на увазі одразу властивості BLUE (принаймні, не для мене), як це не очевидно, якщо вони є лінійними оцінниками (і я не знаю, чи MLE та Huber є неупередженими).

library(MASS)
n <- 100      
reps <- 1e6

epsilon <- 0.5
w <- c(rep((1+epsilon)/n,n/2),rep((1-epsilon)/n,n/2))

ols <- weightedestimator <- lad <- mle.t4 <- huberest <- rep(NA,reps)

for (i in 1:reps)
{
  y <- rnorm(n)
  ols[i] <- mean(y)
  weightedestimator[i] <- crossprod(w,y)  
  lad[i] <- median(y)   
  mle.t4[i] <- fitdistr(y, "t", df=4)$estimate[1]
  huberest[i] <- huber(y)$mu
}

plot(density(ols), col="purple", lwd=3, main="Kernel-estimate of density of OLS and other estimators",xlab="")
lines(density(weightedestimator), col="lightblue2", lwd=3)     
lines(density(lad), col="salmon", lwd=3)     
lines(density(mle.t4), col="green", lwd=3)
lines(density(huberest), col="#949413", lwd=3)
abline(v=0,lty=2)
legend('topright', c("OLS","weighted","median", "MLE t, 4 df", "Huber"), col=c("purple","lightblue","salmon","green", "#949413"), lwd=3)

2
Акуратно! Я думаю, що це дуже простий показовий приклад, трохи більш загальний, ніж той, який я придумав. Коли люди дізнаються про оцінювачі в умовах частістів, я відчуваю, що подібних прикладів часто не вистачає, вони справді допомагають тобі краще зрозуміти цю концепцію.
Гумео

4
Іншою можливістю можуть бути (надійні) оцінки, засновані на мінімізації таких критеріїв, як W=i=1нш(еi) де еi є i-й залишковим і ш - деяка симетрична функція, опукла або невипукла, при (глобальному) мінімумі 0, ш(0)=0. Приклад може бути оцінкою Губера.
kjetil b halvorsen

1
@kjetilbhalvorsen, я також включаю оцінку Губера, яка насправді справляється непогано.
Крістоф Ганк
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.