МАСС, книга (4-е видання, стор. 110) не радить намагатися оцінитиνт
νт
set.seed(1234)
n <- 10
x <- rt(n, df=2.5)
make_loglik <- function(x)
Vectorize( function(nu) sum(dt(x, df=nu, log=TRUE)) )
loglik <- make_loglik(x)
plot(loglik, from=1, to=100, main="loglikelihood function for df parameter", xlab="degrees of freedom")
abline(v=2.5, col="red2")
н
Спробуємо кілька моделювання:
t_nu_mle <- function(x) {
loglik <- make_loglik(x)
res <- optimize(loglik, interval=c(0.01, 200), maximum=TRUE)$maximum
res
}
nus <- replicate(1000, {x <- rt(10, df=2.5)
t_nu_mle(x) }, simplify=TRUE)
> mean(nus)
[1] 45.20767
> sd(nus)
[1] 78.77813
Показання оцінки дуже нестабільне (дивлячись на гістограму, значна частина оціночних значень знаходиться на верхній межі, заданій для оптимізації 200).
Повторення з більшим розміром вибірки:
nus <- replicate(1000, {x <- rt(50, df=2.5)
t_nu_mle(x) }, simplify=TRUE)
> mean(nus)
[1] 4.342724
> sd(nus)
[1] 14.40137
що набагато краще, але середнє значення все-таки перевищує справжнє значення 2,5.
Потім пам’ятайте, що це спрощена версія реальної проблеми, де параметри розташування та масштабу також повинні бути оцінені.
тν