Який взаємозв'язок між ортогональним, кореляційним та незалежним?


25

Я читав статтю, в якій говорилося, що при використанні запланованих контрастів для пошуку засобів, що відрізняються в одну сторону від ANOVA, обмеження повинні бути ортогональними, щоб вони були некоррельованими і не дозволяли помилитися I типу.

Я не розумію, чому ортогональний означав би неспоріднений за будь-яких обставин. Я не можу знайти візуального / інтуїтивного пояснення цього, тому я спробував зрозуміти ці статті / відповіді

https://www.psych.umn.edu/facturing/waller/classes/FA2010/Readings/rodgers.pdf

Що означає ортогональ у контексті статистики?

але для мене вони суперечать один одному. Перший говорить про те, що якщо дві змінні є некорельованими та / або ортогональними, то вони лінійно незалежні, але те, що вони лінійно незалежні, не означає, що вони некорельовані та / або ортогональні.

Тепер на другому посиланні є відповіді, які констатують такі речі, як "ортогональні засоби є некорельованими" та "Якщо X і Y незалежні, то вони ортогональні. Але зворотне не відповідає дійсності".

Ще один цікавий коментар у другому посиланні стверджує, що коефіцієнт кореляції між двома змінними дорівнює косинусу кута між двома векторами, відповідними цим змінним, з чого випливає, що два ортогональних вектора повністю некорельовані (що не є першою статтею претензії).

То який справжній зв’язок між незалежністю, ортогональністю та кореляцією? Можливо, я щось пропустив, але не можу дізнатися, що це таке.


1
Чи не задовольняє вас жодна відповідь на питання, що відображаються як "Зв'язані" та "Пов'язані" праворуч від цього питання?
Діліп Сарват

2
Дві надані мною посилання, здається, дають ґрунтовні відповіді, але вказують різні речі, і коли я переглядаю відповідні питання, я бачу, що люди, які дають відповіді, далеко не згодні між собою
Карл Левассер

2
Плутанина / сприйняте протиріччя могло бути цілком обумовлене різницею між лінійною незалежністю та статистичною незалежністю.
jona

1
Я думаю, що (ANOVA) обмеження мають бути ортогональними - це життєво важливий аспект цього питання: мова йде не лише про випадкові величини. Існує також додатковий акцент на "незалежності" порівняно з тісно пов'язаним питанням, яке Сян запропонував як можливий дублікат (у цьому питанні ОП заявило, що вони розуміють "незалежність", так що у значній мірі це було прийнято як відповіді). Тому я припускаю, що це не дублікат, а друге @jona, що плутанина цілком може бути обгорнута кількома значеннями "незалежності".
Срібляста рибка

1
Я також вважаю, що це не дублікат. Це питання не стосується кореляції, і відповідь не деталізує можливу різницю між ортогональністю та некорельованістю. Більше того, як вказував плакат, є різні суперечливі відповіді на різні суміжні питання.
А.Донда

Відповіді:


39

Незалежність - це статистичне поняття. Дві випадкові величини і Y є статистично незалежними, якщо їх спільний розподіл є добутком граничних розподілів, тобто f ( x , y ) = f ( x ) f ( y ), якщо кожна змінна має щільність f , або більш загально F ( x , y ) = F ( x ) F ( y ), де FXY

f(x,y)=f(x)f(y)
f
F(x,y)=F(x)F(y)
F позначає функцію кумулятивного розподілу кожної випадкової величини.

Кореляція є слабшою, але пов'язаною із цим статистичною концепцією. Кореляція (Пірсона) двох випадкових величин - це тривалість добутку стандартизованих змінних, тобто Змінні неспіввідносяться,якщоρ=0. Можна показати, що дві випадкові величини, які є незалежними, обов'язково є некорельованими, але не навпаки.

ρ=E[XE[X]E[(XE[X])2]YE[Y]E[(YE[Y])2]].
ρ=0

Ортогональність - це поняття, яке зародилося в геометрії, і було узагальнено у лінійній алгебрі та суміжних галузях математики. У лінійної алгебри, ортогональность двох векторів і V визначається в внутрішніх просторів продукції , тобто векторні простору з внутрішнім твором ¯u , про , як за умови , що U , V = 0. Скалярний твір може бути визначено в різні способи (внаслідок чого виникають різні внутрішні простори виробів). Якщо вектори задані у вигляді послідовностей чисел, u = ( uuvu,v

u,v=0.
, то типовий вибір єскалярний твір,U , v = Σ п я = 1 U я V I .u=(u1,u2,un)u,v=i=1nuivi

Ортогональність, таким чином, не є статистичною концепцією, і замішання, яке ви спостерігаєте, ймовірно, пов'язане з різними перекладами поняття лінійної алгебри до статистики:

X,Y=cov(X,Y)=E[(XE[X])(YE[Y])].
Оскільки кореляція двох випадкових змінних дорівнює нулю, якщо коваріація дорівнює нулю, згідно з цим визначенням некорельованість є такою ж, як ортогональність. (Інша можливість - визначити внутрішній добуток випадкових величин просто як тривалість продукту .)

б) Не всі змінні, які ми розглядаємо в статистиці, є випадковими змінними. Особливо в лінійній регресії у нас є незалежні змінні, які не вважаються випадковими, а заздалегідь визначеними. Незалежні змінні зазвичай подаються у вигляді послідовностей чисел, для яких ортогональність природно визначається крапковим твором (див. Вище). Потім ми можемо дослідити статистичні наслідки регресійних моделей, де незалежні змінні є ортогональними або не є. У цьому контексті ортогональність не має конкретного статистичного визначення, і навіть більше: воно не стосується випадкових змінних.

Доповнення у відповідь на коментар Silverfish: Ортогональність має відношення не тільки до оригінальних регресорів, але й щодо контрастів, тому що (набори) простих контрастів (заданих контрастними векторами) можна розглядати як перетворення матриці проектування, тобто набору незалежних змінних, у новий набір незалежних змінних. Ортогональність контрастів визначається за допомогою крапкового добутку. Якщо вихідні регресори взаємно ортогональні і один застосовує ортогональні контрасти, нові регресори теж є ортогональними. Це гарантує, що набір контрастів можна розглядати як опис розкладання дисперсії, наприклад, на основні ефекти та взаємодії, ідею, що лежить в основі ANOVA .

Оскільки, згідно з варіантом а), неспорідненість та ортогональність - це лише різні назви для однієї і тієї ж речі, на мій погляд, найкраще уникати використання терміна в цьому сенсі. Якщо ми хочемо поговорити про неспорідненість випадкових змінних, давайте просто скажемо так, а не ускладнюємо справи, використовуючи інше слово з іншим фоном та різними наслідками. Це також звільняє термін ортогональність, що використовується у варіанті б), що дуже корисно, особливо при обговоренні множинної регресії. І навпаки, нам слід уникати застосування терміна кореляції до незалежних змінних, оскільки вони не є випадковими змінними.


r

Я розкинув посилання на відповіді на два пов'язані з цим питання по всьому вищезгаданому тексту, які допоможуть вам поставити їх у контекст цієї відповіді.


1
+1 Відмінність, яку ви тут зробите, дуже чітка і корисна - мені сподобалося читати весь пост.
whuber

+1 Мені сподобалось, як ви разом вигадували інші відповіді, які інакше можуть здатися суперечливими. Можливо, частиною (б) було б непогано згадати щось конкретно про експериментальний дизайн або ANOVA (оскільки це було сказано у питанні ОП) - це не відразу очевидно, в контексті вашої відповіді, чому "ортогональність" може бути цікавою або дійсно бажана властивість незалежної змінної.
Срібна рибка

@Silverfish, ти маєш рацію, я спробую це додати.
А.Донда

2
XYF()F(x)F(y)XYF()F(x)F(y)xy
FX,Y(x,y)=FX(x)FY(y) for all x and y,<x,y<.

2
@DilipSarwate, puh-lease ...
A. Donda

0

Ось моя інтуїтивна думка: Заявляючи, що x і y є некорельованими / ортогональними, це обидва способи сказати, що знання значення x або y не дозволяє передбачити іншого - x і y не залежать один від одного - припускаючи що будь-яке відношення є лінійним.

Коефіцієнт кореляції вказує на те, наскільки добре знання x (або y) дозволяє нам передбачити y (або x). Припускаючи лінійні зв’язки.

У площині вектор уздовж осі X може змінюватись за величиною, не змінюючи його компонента вздовж осі Y - осі X і Y є ортогональними, а вектор уздовж X є ортогональним до будь-якого вздовж Y. Варіюючи величину вектора не вздовж X, призведе до зміни як X, так і Y компонентів. Вектор більше не ортогональний Y.

Якщо дві змінні є некорельованими, вони ортогональні, а якщо дві змінні є ортогональними, вони некорельовані. Кореляція та ортогональність просто різні, хоча й еквівалентні - алгебраїчний та геометричний - способи вираження поняття лінійної незалежності. Як аналогію розглянемо рішення пари лінійних рівнянь у двох змінних шляхом побудови графіків (геометричних) та детермінант (алгебраїчних).

Щодо припущення про лінійність - нехай x - час, нехай y - синусова функція. Протягом одного періоду х і у є ортогональними і некорельованими, використовуючи звичайні засоби для обчислення обох. Однак знання x дозволяє нам точно передбачити y. Лінійність є вирішальним аспектом кореляції та ортогональності.

Хоча це не є частиною питання, зауважу, що кореляція та неортогональність не прирівнюються до причинності. x і y можуть бути співвіднесені, оскільки вони обоє мають певну, можливо, приховану залежність від третьої змінної. Споживання морозива влітку збільшується, люди влітку частіше виходять на пляж. Двоє співвідносяться, але жодне не «спричиняє» іншого. Докладніше про це див. На веб-сторінці https://en.wikipedia.org/wiki/Correlation_does_not_imply_causation .


Некореляція та ортогональність - це різні речі. Ви можете перевірити це - terpconnect.umd.edu/~bmomen/BIOM621/LineardepCorrOrthogonal.pdf
Юрій

0

Ось співвідношення: Якщо X і Y є некорельованими, то XE [X] є ортогональним YE [Y].

На відміну від того, що незалежне є сильнішим поняттям некоррельованого, тобто незалежне призведе до некоррельованого, (не) ортогонального та (не) корельованого може відбутися одночасно. Приклад

Мені в цьому семестрі є ТП вірогідності, тому я роблю коротке відео про незалежність, кореляцію, ортогональність.

https://youtu.be/s5lCl3aQ_A4

Сподіваюся, це допомагає.


Це не дає відповіді на запитання.
Майкл Р. Черник

Я переглядаю відповідь, сподіваюся, що це допоможе ~ @ Майкл Черник
linan huang

@linanhuang Люди з Ларкса?
YHH
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.