Достатні та необхідні умови для нульового власного значення кореляційної матриці


11

Враховуючи випадкової величини , з розподілом ймовірності , кореляційна матриця є позитивною , тобто її власними значеннями є позитивними або нульовими.nXiP(X1,,Xn)Cij=E[XiXj]E[Xi]E[Xj]

Мене цікавлять умови на , необхідні та / або достатні, щоб мав нульові власні значення. Наприклад, достатньою умовою є те, що випадкові величини не є незалежними: для деяких реальних чисел . Наприклад, якщо , то є власний вектор з нульовим власним значенням. Якщо ми маємо незалежні лінійні обмежень на «S такого типу, це буде означати нуля власних значень.PCmiuiXi=0uiP(X1,,Xn)=δ(X1X2)p(X2,,Xn)u=(1,1,0,,0)CmXim

Існує принаймні одна додаткова (але тривіальна) можливість, коли для деякої (тобто ), оскільки в цьому У випадку є стовпець і рядок нулів: . Як це не дуже цікаво, я припускаю, що розподіл ймовірностей не є такою формою.Xa=E[Xa]aP(X1,,Xn)δ(XaE[Xa])CijCia=Cai=0,i

Моє запитання: чи є лінійні обмеження єдиним способом викликати нульові власні значення (якщо ми забороняємо тривіальне виключення, наведене вище), чи можуть нелінійні обмеження випадкових змінних також генерувати нульові власні значення ?C


1
За визначенням, колекція векторів, що включає нульовий вектор, лінійно залежить, тому ваша додаткова можливість не є чимось новим або іншим. Чи не могли б ви пояснити , що ви маєте в виду «мають m власних»? Це схоже на якусь типографічну помилку.
whuber

@whuber: так, друкарня. Виправлено. Я думаю, що дві умови різні: одна стосується співвідношення змінних, а інша - про ймовірність лише змінної (а саме p(Xa)=δ(XaE(Xa)) ).
Адам

Формулювання вашого запитання заплутане. Це схоже на елементарну теорему лінійної алгебри, але посилання на "незалежні" випадкові величини дозволяють припустити, що це може бути зовсім інше. Чи правильно було б розуміти, що кожен раз, коли ви використовуєте "незалежний", ви маєте на увазі в сенсі лінійної незалежності, а не в сенсі (статистично) незалежних випадкових величин? Ваша посилання на "відсутні дані" ще більше заплутує, тому що це говорить про те, що ваші "випадкові змінні" дійсно можуть означати лише стовпці матриці даних. Було б добре, щоб ці значення були уточнені.
whuber

@whuber: я змінив питання. Сподіваємось, це зрозуміліше.
Адам

Умова незалежності iuiXi=0 не обов'язково повинна бути дорівнює нулю (будь-яка константа буде робити), якщо середнє значення кожного Xi дорівнює нулю.
Секст Емпірік

Відповіді:


6

Можливо, спростивши позначення, ми можемо викласти сутнісні ідеї. Виявляється, нам не потрібно включати очікування чи складні формули, адже все суто алгебраїчно.


Алгебраїчна природа математичних об'єктів

Питання стосується зв’язків між (1) коваріаційною матрицею скінченного набору випадкових величин та (2) лінійних відношень між цими змінними, що розглядаються як вектори .X1,,Xn

Векторний простір , про який йде мова безліч всіх кінцево-дисперсія випадкових величин (в будь-якому імовірнісний просторі ) по модулю підпростору майже напевно постійних змінних, позначить L 2 ( Ω , P ) / R . (Тобто, ми вважаємо дві випадкові величини X і Y однаковими векторами, коли є нульовий шанс, що X - Y відрізняється від свого очікування.) Ми маємо справу лише з кінцевим розмірним векторним простором V, породженим X i ,(Ω,P)L2(Ω,P)/R.XYXYVXi, саме це робить це алгебраїчною проблемою, а не аналітичною.

Що нам потрібно знати про відхилення

- це не просто векторний простір: цеквадратичний модуль,оскільки він оснащений дисперсією. Все, що нам потрібно знати про відхилення, - це дві речі:V

  1. Дисперсія є скалярною функцією з властивістю Q ( Х ) = а 2 Q ( X ) для всіх векторів X .QQ(aX)=a2Q(X)X.

  2. Дисперсія є невиродженою.

Другий потребує певного пояснення. визначає "крапковий добуток", який є симетричною білінеарною формою, заданоюQ

XY=14(Q(X+Y)Q(XY)).

(Це, звичайно , нічого, крім коваріації змінних і Y . ) Вектори X і Y є ортогональними , якщо їх скалярний добуток дорівнює 0. ортогональное доповнення будь-якого безлічі векторів V складається з усіх векторів , ортогональних до кожного елементу з A , написанаXY.XY0.AVA,

A0={vVa.v=0 for all vV}.

Це явно векторний простір. Коли , Q є невиродженим.V0={0}Q

Дозвольте мені довести, що дисперсія насправді є невиродженою, хоча це може здатися очевидним. Припустимо, - ненульовий елемент V 0 . Це означає X Y = 0 для всіх Y V ; рівнозначно,XV0.XY=0YV;

Q(X+Y)=Q(XY)

для всіх векторів Прийняття Y = X даєY.Y=X

4Q(X)=Q(2X)=Q(X+X)=Q(XX)=Q(0)=0

і, отже, Однак ми знаємо (можливо, використовуючи Нерівність Чебишева), що єдині випадкові величини з нульовою дисперсією майже напевно постійні, що ототожнює їх з нульовим вектором у V , QED.Q(X)=0.V,

Інтерпретація запитань

Повертаючись до запитань, у попередній нотації матриця коваріації випадкових змінних є лише регулярним масивом усіх їх точкових продуктів,

T=(XiXj).

Існує хороший спосіб подумати про : він визначає лінійне перетворення на R n звичайним способом, передаючи будь-який вектор x = ( x 1 , , x n ) R n у вектор T ( x ) = y = ( y 1 , ... , x n ) , i- й компонент заданий правилом множення матриціTRnx=(x1,,xn)RnT(x)=y=(y1,,xn)ith

yi=j=1n(XiXj)xj.

Ядро цього лінійного перетворення є подпространством він посилає до нуля:

Ker(T)={xRnT(x)=0}.

Вищенаведене рівняння слід , що , коли для кожного IxKer(T),i

0=yi=j=1n(XiXj)xj=Xi(jxjXj).

Так як це вірно для кожного воно справедливо для всіх векторів , натягнутих на X я , а саме: V сам по собі. Отже, коли x Ker ( T ) , вектор, заданий j x j X j, лежить у V 0 . Оскільки дисперсія є невиродженою, це означає j x j X j = 0. Тобто x описує лінійну залежність серед n початкових випадкових величин.i,XiVxKer(T),jxjXjV0.jxjXj=0.xn

Ви можете легко перевірити, що цей ланцюжок міркувань є оборотним:

Лінійні залежності між в якості векторів знаходяться у взаємно однозначна відповідність з елементами ядра Т .Xj T.

(Пам’ятайте, це твердження все ще розглядає як визначене до постійного зрушення місця розташування - тобто як елементи L 2 ( Ω , P ) / R - більше, ніж просто випадкові змінні.)XjL2(Ω,P)/R

Нарешті, за визначенням, власне значення з є будь-яким скалярним λ , для яких існує ненульовий вектор х з Т ( х ) = λ х . При λ = 0 є власним значенням, простір власних векторів , асоційованих (очевидно) ядро Т .TλxT(x)=λx.λ=0T.


Підсумок

Ми прибули у відповідь на питання: набір лінійних залежностей випадкових величин, ква елементи відповідає один до одного з ядром їх ковариационной матрицею T . Це так, тому що дисперсія - це невиражена квадратична форма. Ядро також є власним простором, пов'язаним з нульовим власним значенням (або просто нульовим підпростором, коли немає нульового власного значення).L2(Ω,P)/R,T.


Довідково

Я значною мірою прийняв позначення та частину мови глави IV в

Жан-П'єр Серре, курс з арифметики. Спрингер-Верлаг 1973.


Ого, це чудово! Просто питання , щоб переконатися , що я все розумію: коли ви пишете « в якості векторів» не означає збір випадкових величин в векторі (тобто X = ( X 1 , ... , X п ) ), або ви ? Якщо я маю рацію, я здогадуюсь, що ви збираєте можливі значення випадкової величини X i у вектор, тоді як розподіл ймовірностей приховано у визначенні дисперсії, правда? XjX=(X1,,Xn)Xi
Адам

Я думаю, що головний аспект, який є не зовсім зрозумілим, полягає в наступному (який може просто показати мою відсутність формальних знань теорії ймовірностей): ви, схоже, показуєте, що якщо є власне значення 0, то, наприклад, . Це обмеження не стосується розподілу ймовірностей P , який приховано в Q (я думаю, це розумний момент щодо цієї демонстрації). Але що це означає мати X 1 = X 2 без посилання на P ? Або просто випливає, що P δ ( X 1 - X 2 )X1=X2PQX1=X2PPδ(X1X2), але як тоді ми знаємо, що це повинна бути лінійна комбінація і X 2 у дельта-функціїX1X2 ?
Адам,

Боюсь, я не розумію, як ти використовуєш "дельта-функцію" в цьому контексті, Адаме. Це частково тому, що я не бачу в цьому потреби, а частково тому, що позначення неоднозначні: чи це, наприклад, дельта Кронекера чи дельта Дірака?
whuber

Це був би Kronecker або Dirac залежно від змінних (дискретних або безперервних). Ці дельти можуть бути частиною міри інтеграції, наприклад, я інтегрую над 2-на-2 матриці (так чотири реальні змінні X 1 , X 2 , X 3 і X 4 , з деякою вагою (скажімо, P = exp ( - t r ( М . М Т ) ) ), або я проинтегрировать підгрупу. Якщо це симетричні матриці (маючи на увазі, наприклад , Х 2 = Х 3MX1X2X3X4P=exp(tr(M.MT))X2=X3), Я можу формально нав'язати, що помноживши на δ ( X 1 - X 2 ) . Це було б лінійним обмеженням. Приклад нелінійного обмеження наведений у коментарях нижче відповіді Мартійна Ветерингса. Pδ(X1X2)
Адам

(продовження) Питання полягає в тому, що може нелінійне обмеження, яке я можу додати до своїх змінних, може викликати власне значення 0. З ваших відповідей, схоже, це: лише нелінійне обмеження, що передбачає лінійне обмеження (як це показано в коментарях нижче відповіді Мартійна Ветерінга). Можливо, проблема полягає в тому, що мій спосіб думати про проблему - з точки зору фізика, і я намагаюся пояснити це іншою мовою (я думаю, тут є правильне місце, щоб задати це питання, не фізика.SE).
Адам

5

Лінійна незалежність є не просто достатньою, але й необхідною умовою

Щоб показати, що матриця дисперсії-коваріації має власні значення, що дорівнюють нулю, якщо і лише тоді, коли змінні не є лінійно незалежними, залишається лише показати, що "якщо матриця має власні значення, рівні нулю, то змінні не є лінійно незалежними".

Якщо у вас є нульове власне значення для то існує деяка лінійна комбінація (визначена власним вектором v )Cij=Cov(Xi,Xj)v

Y=i=1nvi(Xi)

такий як

Cov(Y,Y)=i=1nj=1nvivjCov(Xi,Xj)=i=1nvij=1nvjCij=i=1nvi0=0

що означає, що має бути константою, і, таким чином, змінні X i повинні додати до константи і є або самі константи (тривіальний випадок), або не лінійно незалежні.YXi

- перший рядок у рівнянні з зумовлений властивістю коваріації Cov ( a U + b V , c W + d X ) = a cCov(Y,Y)

Cov(aU+bV,cW+dX)=acCov(U,W)+bcCov(V,W)+adCov(U,X)+bdCov(V,X)

- крок від другого до третього рядка обумовлений властивістю нульового власного значення

j=1nvjCij=0


Нелінійні обмеження

Отже, оскільки лінійні обмеження є необхідною умовою (не просто достатньою), нелінійні обмеження будуть актуальними лише тоді, коли вони опосередковано передбачають (необхідне) лінійне обмеження.

Насправді між власними векторами існує пряма відповідність, пов'язана з нульовим власним значенням, та лінійними обмеженнями.

Cv=0Y=i=1nviXi=const

Таким чином, нелінійні обмеження, що ведуть до нульового власного значення, повинні разом у поєднанні генерувати деяке лінійне обмеження.


Як можуть нелінійні обмеження призводити до лінійних обмежень

Ваш приклад у коментарях може інтуїтивно показати це, як нелінійні обмеження можуть призвести до лінійних обмежень, перевернувши виведення. Наступні нелінійні обмеження

a2+b2=1c2+d2=1ac+bd=0adbc=1

можна звести до

a2+b2=1c2+d2=1ad=0b+c=0

You could inverse this. Say you have non-linear plus linear constraints, then it is not strange to imagine how we can replace one of the linear constraints with a non-linear constraint, by filling the linear constraints into the non-linear constraints. E.g when we substitute a=d and b=c in the non-linear form a2+b2=1 then you can make another relationship adbc=1. And when you multiply a=d and c=b then you get ac=bd.


I guess this (and the answer by whuber) is an indirect answer to my question (which was : "is linear dependence the only way to obtain a zero eigenvalue") in this way : even if the dependence between the random variables is non-linear, it can always be rewritten as a linear dependence by just writing Y=iνiXi. Although I was really looking for way to characterize the possible non-linear constraints themselves, I guess it is nevertheless a useful result.
Adam

Yes, I know... what I'm saying is that if there is a non-linear dependence and there is a zero eigenvalue, then by your answer, it means that the non-linear dependence can be "factored" in some way into a linear dependence. It is a weaker version of what I was looking for, but still something.
Adam

Your a giving an example that does not work, which does not mean that it cannot be the case...
Adam

Here is a counter-example of what your saying (if you think it is not, then it might help us find what is wrong with my formulation of the problem :) ) : Take a 2-by-2 random matrix M, with the non-linear constraint M.MT=1 and detM=1. These 3 non-linear constraint can be rewritten in terms of 2 linear constraints, and one linear : meaning that the covariance matrix has two 0 eigenvector. Remove the constraint detM=1, and they disappear.
Adam

M11=X1, M12=X2, M21=X3 and M22=X4. The constraints are X12+X22=1, X32+X42=1, X1X3+X2X4=0 (only two are independent). They do not imply a zero eigenvalue. However, adding X1X4X2X3=1 does imply two eigenvectors with 0 eigenvalues.
Adam

2

Припустимо С має власний вектор v з відповідним власним значенням 0, тоді вар(vТХ)=vТСv=0. Таким чином, по нерівності ЧебишеваvТХ майже напевно постійний і дорівнює vТЕ[Х]. Тобто кожному нульовому власному значенню відповідає лінійне обмеження, а самеvТХ=vТЕ[Х]. Не потрібно розглядати будь-які особливі випадки.

Таким чином, робимо висновок:

"є лінійними обмеженнями - єдиним способом спонукати нульові власні значення [?]"

Так.

"Чи можуть нелінійні обмеження на випадкові величини також генерувати нульові власні значення C?"

Так, якщо вони передбачають лінійні обмеження.


Я згоден. Я сподівався, що можна бути більш конкретним щодо виду нелінійних обмежень, але я здогадуюсь, що це важко зробити краще, якщо ми не вкажемо обмеження.
Адам,

2

Марикс коваріації С з Х є симетричним, тому можна діагностувати його як С=QΛQТ, з власними значеннями в діагональній матриці Λ. Переписавши це як Λ=QТСQ, rhs - матриця коваріації QТХ, тому нульові власні значення на lhs відповідають лінійним комбінаціям Х з виродженими розподілами.


Це дуже приємний короткий опис, але як ми могли зробити це більш інтуїтивним QТСQ=ков(QТХ)?
Секст Емпірік
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.