Чому знаменник оцінки коваріації не повинен бути n-2, а не n-1?


36

Знаменник (неупередженого) оцінювача дисперсії дорівнює n1 оскільки є n спостережень і оцінюється лише один параметр.

V(X)=i=1n(XiX¯)2n1

Тим самим я дивуюсь, чому не повинен знаменник коваріації бути n2 коли оцінюються два параметри?

Cov(X,Y)=i=1n(XiX¯)(YiY¯)n1

15
Якщо ви зробили це, ви б два суперечать один одному визначень дисперсії: одна буде перша формула , а інший буде друга формула застосовується при Y=X .
whuber

3
Середнє значення бі / багатоваріант (очікування) - це один, а не 2 параметри.
ttnphns

14
@ttnphns Це неправда: середня величина - це, очевидно, два параметри, оскільки для її вираження потрібні два реальних числа. (Дійсно, це єдиний векторний параметр, але, кажучи, це маскує лише той факт, що він має дві складові.) Це явно виявляється в ступенях свободи для тестів з об'єднаною дисперсією, наприклад, коли віднімається, а не 1 . Цікавим у цьому питанні є те, як він виявляє, наскільки розпливчастим, непорушним та потенційно оманливим є загальне "пояснення", що ми віднімаємо 1 від n, оскільки один параметр був оцінений. 211n
whuber

@whuber, ти в цьому прав. Якби тільки (незалежні спостереження) важливо, ми б не витратили більше df у багатоваріантних тестах, ніж у одновимірних. n
ttnphns

3
@whuber: Можливо, я б сказав, що це показує, що те, що вважається "параметром", залежить від ситуації. У цьому випадку дисперсія обчислюється за спостереженнями,n і тому кожне спостереження - або загальна середня величина - може розглядатися як один параметр, навіть якщо це багатофакторне середнє, як сказано ttnphns. Однак в інших випадках, коли, наприклад, тест враховує лінійні комбінації розмірів, кожен вимір кожного спостереження стає "параметром". Ви праві, що це складне питання.
Амеба каже, що повернеться до Моніки

Відповіді:


31

Коваріанці - це дисперсії.

Оскільки за поляризаційною тотожністю

Cov(X,Y)=Var(X+Y2)Var(XY2),

знаменники повинні бути однаковими.


20

Особливий випадок повинен дати вам інтуїцію; подумайте про наступне:

Cov^(X,X)=V^(X)

Ви щасливі, що останній завдяки корекції Бесселя.i=1n(XiX¯)2n1

Але заміна на X в ^ C o v ( X , Y ) на перше дає n i = 1 ( X i - ¯ X ) ( X i - ¯ X )YXCov^(X,Y) , так що, на ваш погляд, може найкраще заповнити бланк?i=1n(XiX¯)(XiX¯)mystery denominator


1
ДОБРЕ. Але ОП може запитати "чому вважати cov (X, X) і cov (X, Y) в одному рядку логіки? Чому ти заміщаєш Y на X у cov () легковажно? Може бути, cov (X, Y) інша ситуація? " Ви цього не запобігали, хоч відповідь (дуже схвалена) повинна мати, на моє враження :-)
ttnphns

7

Швидка і брудна відповідь ... Розглянемо перший ; якби у вас було n спостережень із відомим очікуваним значенням E ( X ) = 0, ви б використалиvar(X)n E(X)=01ni=1nXi2 для оцінки дисперсії.

Очікуване значення невідоме, ви можете перетворити свої спостережень у n - 1 спостережень із відомим очікуваним значенням, взявши A i = X i - X 1 для i = 2 , , n . Ви отримаєте формулу з n - 1 у знаменнику - однак A i не є незалежним, і вам доведеться це враховувати; наприкінці ви знайдете звичайну формулу.nn1Ai=XiX1i=2,,nn1Ai

Тепер для коваріації ви можете використовувати ту саму ідею: якщо очікуване значення було ( 0 , 0 ) , у вас було б(X,Y)(0,0)1n in the formula. By subtracting (X1,Y1) to all other observed values, you get n1 observations with known expected value... and a 1n1 in the formula — once again, this introduces some dependence to take into account.

P.S. The clean way to do that is to choose an orthonormal basis of (1,,1), that is n1 vectors c1,,cn1Rn such that

  • jcij2=1i,
  • jcij=0i,
  • jci1jci2j=0i1i2 .

n1Ai=jcijXjBi=jcijYj. The (Ai,Bi) are independent, have expected value (0,0), and have same variance/covariance than the original variables.

All the point is that if you want to get rid of the unknown expectation, you drop one (and only one) observation. This works the same for both cases.


6

Here is a proof that the p-variate sample covariance estimator with denominator 1n1 is an unbiased estimator of the covariance matrix:

x=(x1,...,xp).

Σ=E((xμ)(xμ))

S=1n(xix¯)(xix¯)

To show: E(S)=n1nΣ

Proof: S=1nxixix¯x¯

Next:

(1) E(xixi)=Σ+μμ

(2) E(x¯x¯)=1nΣ+μμ

Therefore: E(S)=Σ+μμ(1nΣ+μμ)=n1nΣ

And so Su=nn1S, with the final denominator 1n1, is unbiased. The off-diagonal elements of Su are your individual sample covariances.

Additional remarks:

  1. The n draws are independent. This is used in (2) to calculate the covariance of the sample mean.

  2. Step (1) and (2) use the fact that Cov(x)=E[xx]μμ

  3. Step (2) uses the fact that Cov(x¯)=1nΣ


The difficulty being in step 2 ! :)
Elvis

@Elvis It's messy. One needs to apply the rule Cov(X+Y,Z)=Cov(X,Z) + Cov(Y,Z) and recognize that the different draws are independent. Then it's basically summing up the covariance n times and scaling it down by 1/n²
statchrist

4

I guess one way to build intuition behind using 'n-1' and not 'n-2' is - that for calculating co-variance we do not need to de-mean both X and Y, but either of the two, i.e.


Could you elaborate on how this bears on the question of what denominator to use? The algebraic relation in evidence derives from the fact that the residuals relative to the mean sum to zero, but otherwise is silent about which denominator is relevant.
whuber

5
I came here because I had the same question as the OP. I think this answer gets at the nub of the point @whuber pointed out above: that the rule of thumb is that df ~= n - (parameters estimated) can be "vague, unrigorous, and potentially misleading." This points out the fact that though it looks like you need to estimate two parameters (xbar and ybar), you really only estimate one (xbar or ybar). Since the df should be the same in both cases, it must be the lower of the two. I think that is the intent here.
mpettis

1

1) Start df=2n.

2) Sample covariance is proportional to Σi=1n(XiX¯)(YiY¯). Lose two df; one from X¯, one from Y¯ resulting in df=2(n1).

3) However, Σi=1n(XiX¯)(YiY¯) only contains n separate terms, one from each product. When two numbers are multiplied together the independent information from each separate number disappears.

As a trite example, consider that

24=124=212=38=46=64=83=122=241,

and that does not include irrationals and fractions, e.g. 24=2626, so that when we multiply two number series together and examine their product, all we see are the df=n1 from one number series, as we have lost half of the original information, that is, what those two numbers were before the pair-wise grouping into one number (i.e., multiplication) was performed.

In other words, without loss of generality we can write

(XiX¯)(YiY¯)=ziz¯ for some zi and z¯,

i.e., zi=XiYiX¯YiXiY¯, and, z¯=X¯Y¯. From the z's, which then clearly have df=n1, the covariance formula becomes

Σi=1nziz¯n1=

Σi=1n[(XiX¯)(YiY¯)]n1=

1n1Σi=1n(XiX¯)(YiY¯).

Thus, the answer to the question is that the df are halved by grouping.


@whuber How on earth did I get the same thing posted twice and deleted once? What gives? Can we get rid of one of them? For future reference, is there any way to permanently delete such duplicates? I have a few hanging around and it's annoying.
Carl

As far as I can tell, you reposted your answer from the duplicate to here. (Nobody else has the power to post answers in your name.) The system strongly discourages posting identical answers in multiple threads, so when I saw that, it convinced me these two threads are perfect duplicates and I "merged" them. This is a procedure that moves all comments and answers from the source thread to the target thread. I then deleted your duplicate post here in the target thread. It will remain permanently deleted, but will be visible to you as well as to people of sufficiently high reputation.
whuber

@whuber I didn't know what happens in a merge, that a merge was taking place or what many of the rules are, despite looking things up constantly. It takes time to learn, be patient, BTW, would you consider taking stats.stackexchange.com/questions/251700/… off of Hold?
Carl
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.