Що це за компенсація дисперсії зміщення коефіцієнтів регресії та як це отримати?


9

У цій роботі ( Байєсівські умовиводи про варіаційні компоненти, що використовують лише контрасти помилок , Harville, 1974), автор стверджує бути "добре відомим співвідношення ", для лінійної регресії де

(yXβ)H1(yXβ)=(yXβ^)H1(yXβ^)+(ββ^)(XH1X)(ββ^)
y=Xβ+ϵ,
ϵN(0,H).

Як це добре відомо? Який найпростіший спосіб довести це?


1
Він знаходиться у Вікіпедії , дивіться там «виведення».
user603

@ user603 Ви не проти зробити посилання зрозумілішим? Дякую!
Сіббс Азартні ігри

@ user603 Вибачте, я не можу зрозуміти, як посилання вирішує проблему. Для мене, у моєму випадку, рівняння Var (y) = зміщення + ... Чи можете ви допрацювати?
Сіббс Азартні ігри

4
@SibbsGambling Зауважте, що у вашому рівнянні є два доданки, пов'язані з дисперсією, у цій формулюванні зваженої лінійної регресії . Термін ліворуч пов'язаний з дисперсією навколо справжньої моделі (зважена матрицею точності ). Перший термін праворуч пов'язаний з дисперсією навколо приталених моделей. Другий член праворуч пов'язаний з квадратом зміщення. Це компромісне зміщення та зміщення. H1
EdM

Відповіді:


6

Останній член у рівнянні можна записати як

(XβXβ^)H1(XβXβ^).

У цій формі рівняння говорить щось цікаве. Припустимо, що позитивно визначений і симетричний, тому обернена. Тому ми можемо визначити внутрішній добуток , даючи нам геометрію. Тоді вищезгадана рівність по суті говорить про те, що H<x,y>H1=xH1y

(XβXβ^)(yXβ^).

Я хотів дати вам трохи інтуїції, оскільки коментатор вже залишив посилання на виведення.

Редагувати: Для нащадків

LHS:

(yXβ)H1(yXβ)=yH1y2yH1Xβ+βXH1Xβ=(A)(B)+(C)

RHS:

(yXβ^)H1(yXβ^)+(ββ^)(XH1X)(ββ^)
=yH1y2yH1Xβ^+β^XH1Xβ^+βXH1Xβ2β^XH1Xβ+β^XH1Xβ^=(A)(D)+(E)+(C)(F)+(E)

Відношення:

β^=(XH1X)1XH1y

Підключивши відношення, ви можете показати, що (B) = (F), і що 2 (E) = (D). Все зроблено.


Вибачте, я не можу зрозуміти, як посилання вирішує проблему. Для мене, у моєму випадку, рівняння Var (y) = зміщення + ... Чи можете ви допрацювати?
Сіббс азартні ігри

@SibbsGambling редагував мою відповідь, включаючи виведення.
jlimahaverford

@jlimahaverford Ви не забули у кінці формули для ? yβ^
Гумео

7

Вони досягають цієї ідентичності технікою, що називається заповненням квадрата. Ліва частина знаходиться у квадратичній формі, тому почніть з її множення

(yXβ)H1(yXβ)=yH1y2yH1Xβ+βXH1Xβ

продовжуйте, а потім перепишіть у вигляді . Алгебра є наче довгим, але гуглим, що завершує площу в байєсівській регресії, і ви можете знайти безліч підказок. Наприклад, дивіться вікіпедію про лінійну регресію Баєса та інші відповіді CrossValided щодо заповнення квадрата, як тут . β^=(XH1X)1XH1y


2

Якщо ви знаєте свою матричну алгебру, то це можна зробити, множивши все, і переконавшись, що ви дійсно однакові з обох сторін. Це продемонстрував jlimahaverford.

Щоб мати змогу це зробити, вам потрібна формула для оцінки . Ми можемо отримати формулу аналогічним чином, як для лінійної регресії, коли у нас є некорельовані умови помилки. Хитрість полягає в стандартизації.β^

Ось деякі відомості про те, як стандартизувати RV, що надходить від багатоваріантного нормального розподілу. Припустимо, що у вас є позитивно визначена, так що ви можете факторізовать як . Тепер випадкова величина походить від розподілу . Тепер ми можемо використовувати цю хитрість для нашої проблеми, щоб знайти . Давайте факторізуются . У нас Тепер був стандартизований, таким, що

XN(μ,Σ).
ΣΣ=PPT
Y=P1(Xμ)
N(0,I)β^H=PPT
y=Xβ+ϵP1y=P1Xβ+P1ϵ
ϵcov(P1ϵ)=I , тому тепер ми можемо трактувати це як просту модель множинної лінійної регресії, де: Отже, у нас є проблема з регресією: Формула для є Це ключ, який потрібно зробити це інше - алгебраїчна маніпуляція, продемонстрована в рішенні jlimahaverford.
X~=P1X,y~=P1yandϵ~=P1ϵ.
y~=X~β+ϵ~
β^
β^=(X~TX~)1X~Ty~=((P1X)TP1X)1(P1X)TP1y=(XT(PPT)1X)1X(PPT)1y=(XTH1X)1XH1y
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.