Знаменник (неупередженого) оцінювача дисперсії дорівнює оскільки є спостережень і оцінюється лише один параметр.
Тим самим я дивуюсь, чому не повинен знаменник коваріації бути коли оцінюються два параметри?
Знаменник (неупередженого) оцінювача дисперсії дорівнює оскільки є спостережень і оцінюється лише один параметр.
Тим самим я дивуюсь, чому не повинен знаменник коваріації бути коли оцінюються два параметри?
Відповіді:
Коваріанці - це дисперсії.
Оскільки за поляризаційною тотожністю
знаменники повинні бути однаковими.
Особливий випадок повинен дати вам інтуїцію; подумайте про наступне:
Ви щасливі, що останній завдяки корекції Бесселя.
Але заміна на X в ^ C o v ( X , Y ) на перше дає ∑ n i = 1 ( X i - ¯ X ) ( X i - ¯ X ) , так що, на ваш погляд, може найкраще заповнити бланк?
Швидка і брудна відповідь ... Розглянемо перший ; якби у вас було n спостережень із відомим очікуваним значенням E ( X ) = 0, ви б використали для оцінки дисперсії.
Очікуване значення невідоме, ви можете перетворити свої спостережень у n - 1 спостережень із відомим очікуваним значенням, взявши A i = X i - X 1 для i = 2 , … , n . Ви отримаєте формулу з n - 1 у знаменнику - однак A i не є незалежним, і вам доведеться це враховувати; наприкінці ви знайдете звичайну формулу.
Тепер для коваріації ви можете використовувати ту саму ідею: якщо очікуване значення було ( 0 , 0 ) , у вас було б in the formula. By subtracting to all other observed values, you get observations with known expected value... and a in the formula — once again, this introduces some dependence to take into account.
P.S. The clean way to do that is to choose an orthonormal basis of , that is vectors such that
. The are independent, have expected value , and have same variance/covariance than the original variables.
All the point is that if you want to get rid of the unknown expectation, you drop one (and only one) observation. This works the same for both cases.
Here is a proof that the p-variate sample covariance estimator with denominator is an unbiased estimator of the covariance matrix:
.
To show:
Proof:
Next:
(1)
(2)
Therefore:
And so , with the final denominator , is unbiased. The off-diagonal elements of are your individual sample covariances.
Additional remarks:
The n draws are independent. This is used in (2) to calculate the covariance of the sample mean.
Step (1) and (2) use the fact that
Step (2) uses the fact that
I guess one way to build intuition behind using 'n-1' and not 'n-2' is - that for calculating co-variance we do not need to de-mean both X and Y, but either of the two, i.e.
1) Start .
2) Sample covariance is proportional to . Lose two ; one from , one from resulting in .
3) However, only contains separate terms, one from each product. When two numbers are multiplied together the independent information from each separate number disappears.
As a trite example, consider that
,
and that does not include irrationals and fractions, e.g. , so that when we multiply two number series together and examine their product, all we see are the from one number series, as we have lost half of the original information, that is, what those two numbers were before the pair-wise grouping into one number (i.e., multiplication) was performed.
In other words, without loss of generality we can write
for some and ,
i.e., , and, . From the 's, which then clearly have , the covariance formula becomes
.
Thus, the answer to the question is that the are halved by grouping.
Hold
?