Чому нам потрібен оцінювач, щоб бути послідовним?


15

Я думаю, я вже зрозумів математичне визначення послідовного оцінювача. Виправте мене, якщо я помиляюся:

Wn - послідовний оцінювач дляθ якщоϵ>0

limnP(|Wnθ|>ϵ)=0,θΘ

Де - параметричний простір. Але я хочу зрозуміти необхідність того, щоб оцінювач був послідовним. Чому невідповідний оцінювач поганий? Чи можете ви навести кілька прикладів?Θ

Я приймаю симуляції в R або python.


3
Оцінювач, який не відповідає, не завжди є поганим. Візьмемо для прикладу непослідовний, але неупереджений оцінювач. Дивіться статтю Вікіпедії про "Постійний оцінювач" en.wikipedia.org/wiki/Consistent_estimator , зокрема розділ "
Зміщення

Послідовність є грубо кажучи про оптимальну асимптотичну поведінку оцінювача. Ми вибираємо оцінювач, який наближається до справжнього значення в довгостроковій перспективі. Оскільки це лише зближення у ймовірності, ця нитка може бути корисною: stats.stackexchange.com/questions/134701/… . θ
StubbornAtom

@StubbornAtom, я б обережно назвав такий послідовний оцінювач "оптимальним", оскільки цей термін, як правило, зарезервований для оцінювачів, які в деякому сенсі також є ефективними.
Крістоф Ганк

Відповіді:


22

Якщо оцінювач не є послідовним, він не збігається з істинним значенням у ймовірності . Іншими словами, завжди є ймовірність того, що ваш оцінювач і справжнє значення матимуть різницю, незалежно від того, скільки точок даних у вас є. Це насправді погано, адже навіть якщо ви збираєте величезну кількість даних, ваша оцінка завжди матиме позитивну ймовірність бути деякими ϵ>0 різними від справжнього значення. На практиці ви можете вважати цю ситуацію так, ніби ви використовуєте оцінювач такої кількості, що навіть опитування всього населення замість невеликої вибірки не допоможе вам.


21

Розглянемо n=10000 спостережень зі стандартного розподілу Коші, що таке саме, як і розподіл Стьюдента з 1 ступенем свободи. Хвости цього розподілу досить важкі, що він не має сенсу; розподіл зосереджено за його середньоюη=0.

Послідовність вибірки означає Aj=1ji=1jXiне відповідає центру розподілу Коші. Грубо кажучи, складність полягає в тому, що дуже екстремальні спостереженняXi(позитивні чи негативні) відбуваються з достатньою регулярністю, що немає шансуAjперейти доη=0.(Ajне просто повільно сходяться, вони не ' t коли-небудь збігається. РозподілAjзнову стандартний Коші [доказ].)

На противагу цьому, на будь-якому етапі триваючого процесу вибірки приблизно половина спостережень Xi буде лежати з обох боків η, так що послідовність Hj з медіанів вибірки дійсно сходиться до η.

Ця відсутність конвергенції Aj та конвергенція Hj ілюструється наступним моделюванням.

set.seed(2019)  # for reproducibility
n = 10000;  x = rt(n, 1);  j = 1:n
a = cumsum(x)/j
h = numeric(n)
for (i in 1:n) {
  h[i] = median(x[1:i])  } 
par(mfrow=c(1,2))
 plot(j,a, type="l", ylim=c(-5,5), lwd=2,
    main="Trace of Sample Mean")
  abline(h=0, col="green2")
  k = j[abs(x)>1000] 
  abline(v=k, col="red", lty="dotted")
 plot(j,h, type="l", ylim=c(-5,5), lwd=2,
     main="Trace of Sample Median")
  abline(h=0, col="green2") 
par(mfrow=c(1,1))

enter image description here

Ось перелік кроків, на яких |Xi|>1000. Ви можете побачити вплив деяких з цих екстремальних спостережень на середні поточні показники в графіці ліворуч (у вертикальних червоних пунктирних лініях).

k = j[abs(x)>1000]
rbind(k, round(x[k]))
   [,1] [,2] [,3]  [,4] [,5]  [,6]   [,7]  [,8]
k   291  898 1293  1602 2547  5472   6079  9158
  -5440 2502 5421 -2231 1635 -2644 -10194 -3137

Послідовність важливої ​​оцінки: У вибірці з популяції Коші середнє значення для вибірки n=10000 спостережень не є кращими для оцінки центруη ніж лише одне спостереження. На противагу цьому, послідовна медіана вибірки збігається доη, тому більші вибірки дають кращі оцінки.


1
Трохи зачепивши, але ваше моделювання ілюструє невдачу середнього зразка зблизитись майже впевнено, не ймовірно, до центру Коші (сильна проти слабка консистенція).
aleshing

9

Дійсно простий приклад того, чому важливо думати про послідовність, на яку я не думаю, що приділяє достатньо уваги, - це надмірно спрощена модель.

В якості теоретичного прикладу припустимо, що ви хотіли встановити лінійну регресійну модель на деякі дані, в яких справжні ефекти були насправді нелінійними. Тоді ваші прогнози не можуть відповідати справжньому середньому для всіх комбінацій коваріатів, тоді як більш гнучкі можуть бути в змозі. Іншими словами, спрощена модель матиме недоліки, які неможливо подолати, використовуючи більше даних.


yi=y^i+e^i

8

@BruceET вже дав чудову технічну відповідь, але хотів би додати пункт про тлумачення всього цього.

Одним із фундаментальних понять статистики є те, що в міру збільшення розміру вибірки ми можемо дійти більш точних висновків щодо нашого основного розподілу. Ви можете подумати про це як уявлення про те, що взяття великої кількості зразків виключає випадкові тремтіння даних, тому ми отримуємо кращі уявлення про базову структуру.

Прикладів теорем у цій галузі є безліч, але найбільш відомим є Закон великих чисел, стверджуючи, що якщо ми маємо сімейство iid випадкових величин (Хi)iN  і Е[Х1]<, потім

1нк=1нХкЕ[Х]   як

Now, to require an estimator to be consistent is to demand that it also follows this rule: As its job is to estimate an unknown parameter, we would like it to converge to that parameter (read: estimate that parameter arbitrarily well) as our sample size tends to infinity.

The equation

limnP(|Wnθ|>ϵ)=0,ϵ>0 θ Θ

is nothing else but convergence in probability of the random variables Wn towards θ, meaning that in some sense, a larger sample will get us closer and closer to the true value.

Now, if you want, you can look at it conversely: If that condition were to fail, then even with infinite sample size, there would be a "corridor" with positive width [θε,θ+ε] around θ and a nonzero probability that even with arbitrarily large sample size, our estimator will fall outside that corridor. And that would obviously violate the aforementioned idea, so consistency is a very natural condition on estimators to desire and enforce.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.