Проблема щодо оцінюваності параметрів


13

Нехай і - чотири випадкові величини, такі, що , де - невідомі параметри. Припустимо також, що ,Тоді яка з них справжня?Y1,Y2,Y3Y4E(Y1)=θ1θ3;  E(Y2)=θ1+θ2θ3;  E(Y3)=θ1θ3;  E(Y4)=θ1θ2θ3θ1,θ2,θ3Var(Yi)=σ2i=1,2,3,4.

A. є .θ1,θ2,θ3

B. є .θ1+θ3

C. є , а є найкращою лінійною неупередженою оцінкою .θ1θ312(Y1+Y3)θ1θ3

D. є оцінним.θ2

Відповідь дана С, що мені здається дивним (бо я отримав D).

Чому я отримав D? Оскільки, .E(Y2Y4)=2θ2

Чому я не розумію, що C може бути відповіддю? Гаразд, я бачу, є неупередженим оцінювачем , а його "дисперсія менша, ніж . θ1-θ3Y1+Y3Y1+Y2+Y3+Y44θ1θ3Y1+Y32

Скажіть, будь ласка, де я роблю неправильно.

Також розміщено тут: /math/2568894/a-problem-on-estimability-of-parameters


1
Поставте self-studyтег, або хтось підійде і закриє ваше запитання.
Карл

@Carl це зроблено, але чому?
Stat_prob_001

Це правила для сайту, а не мої правила, правила сайту.
Карл

Є ? Y1Y3
Карл

1
@Carl можна подумати таким чином: де - rv із середнім значенням та дисперсією . І, де - rv із середнім значенням та дисперсієюϵ 1 0 σ 2 Y 3 = θ 1 - θ 3 + ϵ 3 ϵ 3 0 σ 2Y1=θ1θ3+ϵ1ϵ10σ2Y3=θ1θ3+ϵ3ϵ30σ2
Stat_prob_001

Відповіді:


8

Ця відповідь підкреслює перевірку достовірності. Властивість мінімальної дисперсії є моїм другорядним моментом.

Для початку підсумовуємо інформацію за матричною формою лінійної моделі наступним чином: деE(ε)=0,Var(ε)=σ2I(для обговорення оцінюваності припущення про сферичність не потрібне. Але для обговорення властивості Гаусса-Маркова нам потрібно припустити сферичністьε).

(1)Y:=[Y1Y2Y3Y4]=[101111101111][θ1θ2θ3]+[ε1ε2ε3ε4]:=Xβ+ε,
E(ε)=0,Var(ε)=σ2Iε

Якщо конструкція матриці має повний ранг, то параметр оригінал β допускає унікальні найменших квадратів оцінки β = ( X ' X ) - 1 Х ' У . Отже, будь-який параметр φ , визначається як лінійна функція ф ( р ) з р є поважна в тому сенсі , що вона може бути однозначно оцінена з допомогою даних по методу найменших квадратів оцінки β , як φ = р ' р .Xββ^=(XX)1XYϕϕ(β)ββ^ϕ^=pβ^

Тонкість виникає, коли не є повноцінним. Щоб детально обговорити, ми спочатку виправляємо деякі позначення та терміни (я дотримуюсь конвенції Безкоординатного підходу до лінійних моделей , Розділ 4.8. Деякі терміни звучать без потреби технічно). Крім того, обговорення стосується загальної лінійної моделі Y = X β + ε з X R n × k і β R k .XY=Xβ+εXRn×kβRk

  1. Регресійний колектор являє собою сукупність середніх векторів , як ; змінюється в R до : М = { Х & beta ; : & beta ; R K } .βRk
    M={Xβ:βRk}.
  2. Параметричний функціонал являє собою лінійний функціонал р , φ ( β ) = р ' β = р 1 β 1 + + р до β до .ϕ=ϕ(β)β
    ϕ(β)=pβ=p1β1++pkβk.

Як було сказано вище, коли , не кожен параметричний функціонал піддається оцінці. Але зачекайте, яке технічне визначення терміна оцінюється ? Здається, важко дати чітке визначення, не турбуючи трохи лінійної алгебри. Одне визначення, яке, на мою думку, є найбільш інтуїтивним, таке (з тієї ж вищезгаданої посилання):ϕ ( β )rank(X)<kϕ(β)

Визначення 1. Параметричний функціонал оцінюється, якщо він однозначно визначається X β в тому сенсі, що ϕ ( β 1 ) = ϕ ( β 2 ), коли β 1 , β 2R k задовольняють X β 1 = X β 2 .ϕ(β)Xβϕ(β1)=ϕ(β2)β1,β2RkXβ1=Xβ2

Інтерпретація. Вищенаведене визначення передбачає, що відображення від регресійного колектора до простору параметрів ϕ повинно бути однозначним, що гарантується при ранжируванні ( X ) = k (тобто, коли X сам по собі). Коли ранг ( X ) < k , ми знаємо, що існує β 1β 2 такий, що X β 1 = X β 2Mϕrank(X)=kXrank(X)<kβ1β2Xβ1=Xβ2. Вищеозначене визначення, яке описано вище, фактично виключає ті структурно-дефіцитні параметричні функціонали, які призводять до самих різних значень навіть з однаковим значенням на , що не має сенсу природно. З іншого боку, оціночний параметричний функціонал ϕ ( ) дійсно дозволяє випадок ϕ ( β 1 ) = ϕ ( β 2 ) з β 1β 2 , доки виконується умова X β 1 = X β 2 .Mϕ()ϕ(β1)=ϕ(β2)β1β2Xβ1=Xβ2

Існують й інші еквівалентні умови для перевірки оцінювання параметричного функціоналу, наведеного в тій же посиланні, Пропозиція 8.4.

Після такого багатослівного вступу на тлі повернемося до вашого питання.

A. сам по собі не оцінюється з тієї причини, що ранг ( X ) < 3 , що тягне за собою X β 1 = X β 2 з β 1β 2 . Хоча наведене вище визначення дано для скалярних функціоналів, воно легко узагальнюється до функціональних значень, що оцінюються векторними.βrank(X)<3Xβ1=Xβ2β1β2

B. не піддається оцінці. Для доцільності розглянемо β 1 = ( 0 , 1 , 0 ) і β 2 = ( 1 , 1 , 1 ) , що дає X β 1 = X β 2, але ϕ 1ϕ1(β)=θ1+θ3=(1,0,1)ββ1=(0,1,0)β2=(1,1,1)Xβ1=Xβ2 .ϕ1(β1)=0+0=0ϕ1(β2)=1+1=2

C. оцінюється. Оскільки X β 1 = X β 2 тривіально означає θ ( 1 ) 1 - θ ( 1 ) 3 = θ ( 2 ) 1 - θ ( 2 ) 3 , тобто ϕϕ2(β)=θ1θ3=(1,0,1)βXβ1=Xβ2θ1(1)θ3(1)=θ1(2)θ3(2) .ϕ2(β1)=ϕ2(β2)

D. також оцінюється . Виведення від X β 1 = X β 2 до ϕ 3 ( β 1 ) = ϕ 3 ( β 2 ) також тривіальне.ϕ3(β)=θ2=(0,1,0)βXβ1=Xβ2ϕ3(β1)=ϕ3(β2)

Після перевірки оцінюваності теорема (пропозиція 8.16, та ж посилання) стверджує властивість Гаусса-Маркова . Виходячи з цієї теореми, друга частина варіанту С неправильна. Найкраща лінійна неупереджена оцінка - ˉ Y = ( Y 1 + Y 2 + Y 3 + Y 4 ) / 4 , згідно з теоремою, наведеною нижче.ϕ(β)Y¯=(Y1+Y2+Y3+Y4)/4

Теорема. Нехай бути поважний параметричний функціонал, то її найкращою лінійної несмещенной оцінкою (ака, Гаусса-Маркова оцінка) є φ ( β ) для будь-якого рішення р до нормальних рівнянь X ' X & beta ; = X ' Y .ϕ(β)=pβϕ(β^)β^XXβ^=XY

Доказ полягає в наступному:

Доказ. Безпосередні обчислення показують , що нормальні рівняння є який, після спрощення, це [ φ ( β ) θ 2 / 2 - φ

[404020404]β^=[111101011111]Y,
тобто,φ( β )= ˉ У .
[ϕ(β^)θ^2/2ϕ(β^)]=[Y¯(Y2Y4)/4Y¯],
ϕ(β^)=Y¯

Тому варіант D - єдина правильна відповідь.


Додаток: Зв'язок оцінюваності та ідентифікованості

Коли я навчався в школі, професор коротко зазначив, що оцінюваність параметричного функціоналу відповідає ідентифікації моделі. Я прийняв цю претензію як належне. Однак рівновагу потрібно прописати більш чітко.ϕ

Відповідно до монографії А. В. Девісона Статистичні моделі с.144,

θ

(1)Var(ε)=σ2I

(2)E[Y]=Xβ,βRk.

Yrank(X)=k(2)β1β2Xβ1Xβ2(2)

rank(X)<kϕ(β)=pβ

ϕ(β)(2)ϕ=ϕ(β)=pβXϕ(β)Xβ1=Xβ2pβ1=pβ2ϕ1=ϕ2(3)ϕ(3)Xβ1=Xβ2ϕ1=ϕ2ϕ1(β)=ϕ2(β)

Xβ

ϕ2(β)=θ1θ3ϕ3(β)=θ2(1)(ϕ2,ϕ3)

E[Y]=[10111011][ϕ2ϕ3]=X~γ.

X~γ


Якщо вам знадобиться доказ другої частини варіанту С, я доповню свою відповідь.
Жансіонг

2
14(Y1+Y2+Y3+Y4)

2
(Y1+Y2+Y3+Y4)/4

6

Застосуйте визначення.

Yi

Визначення

tλ(Y)=i=14λiYi
λ=(λi)

θ1θ3θ1θ3

θ1θ3=E[tλ(Y)]=i=14λiE[Yi]=λ1(θ1θ3)+λ2(θ1+θ2θ3)+λ3(θ1θ3)+λ4(θ1θ2θ3)=(λ1+λ2+λ3+λ4)(θ1θ3)+(λ2λ4)θ2.

θi

(1)λ2λ4=0 and λ1+λ2+λ3+λ4=1.

tλ

Var(tλ)=i=14λi2Var(Yi)+ij4λiλjCov(Yi,Yj).

Yi

Var(Yi)=σ2,

(2)Var(tλ)=σ2(λ12+λ22+λ32+λ42).

(2)(1)

Рішення

(1)λiu=λ1λ3v=λ1+λ3λ1λ3λ2λ4(2)

σ2(λ12+λ22+λ32+λ42)=σ24(2u2+(2v1)2+1).

(u,v)σ20u2(2v1)2u=2v1=0

λ=(λ1,λ2,λ3,λ4)=(1/4,1/4,1/4,1/4).

Варіант (C) помилковий, оскільки він не дає найкращого об'єктивного лінійного оцінювача. Варіант (D), хоча і не дає повної інформації, проте є правильним, оскільки

θ2=E[t(0,1/2,0,1/2)(Y)]

- очікування лінійного оцінювача.

{θ2,θ1θ3}θ1,θ3,θ1+θ3

Отже (D) - єдина правильна відповідь.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.