Лінійна регресія: * Чому * Ви можете розділити суми квадратів?


9

Ця публікація стосується двовимірної лінійної регресійної моделі, . Я завжди брав розподіл загальної суми квадратів (SSTO) на суму квадратів для помилки (SSE) та суму квадратів для моделі (SSR) на вірі, але як тільки я почав реально думати про це, я не розумію чому це працює ...Yi=β0+β1xi

Частина I дійсно розуміють:

yi : спостережуване значення y

y¯ : середнє значення всіх спостережуваних syi

y^i : Встановлене / передбачуване значення y для даного спостереження x

yiy^i : Залишок / помилка (якщо у всіх квадратиках додано квадрат та додано, це SSE)

y^iy¯ : наскільки розміщене значення моделі відрізняється від середнього значення (якщо в квадраті та додано для всіх спостережень це SSR)

yiy¯ : наскільки спостережуване значення відрізняється від середнього значення (якщо його застосовувати та додавати за всіма спостереженнями, це SSTO).

Я можу зрозуміти, чому для одного спостереження, нічого не розбиваючи, . І я можу зрозуміти, чому, якщо ви хочете додати речі над усіма спостереженнями, ви повинні їх скласти на квадрат або вони додадуть до 0.(yiy¯)=(y^iy¯)+(yiy^i)

Частина, яку я не розумію, це чому (наприклад, SSTO = SSR + SSE). Здається, якщо у вас є ситуація, коли , то , а не . Чому тут не так?(yiy¯)2=(y^iy¯)2+(yiy^i)2A=B+CA2=B2+2BC+C2A2=B2+C2


5
Ви оставили підсумок у своєму останньому абзаці. SST = SSR + SSE - це сума над , але ваша рівність, яку ви написали безпосередньо перед цим, насправді не відповідає дійсності без знака підсумовування. i
Glen_b -Встановіть Моніку

1
В останньому абзаці ви хочете (тобто SSTO = SSR + SSE) ні (наприклад, SSTO = SSR + SSE). "напр." - це абревіатура для латинської фрази " samplepli gratia " або "наприклад" англійською мовою. "тобто" - це абревіатура для " id est " і її можна читати англійською мовою як "це є".
Меттью Ганн

Відповіді:


9

Здається, якщо у вас є ситуація, коли , то , а не . Чому тут не так?A=B+CA2=B2+2BC+C2A2=B2+C2

Концептуально ідея полягає в тому, що оскільки і є ортогональними (тобто перпендикулярними).BC=0BC


У контексті лінійної регресії тут залишки є ортогональними для зруйнованого прогнозу . Прогноз від лінійної регресії створює ортогональне розкладання у подібному сенсі, як - ортогональне розкладання.ϵi=yiy^iy^iy¯y(3,4)=(3,0)+(0,4)

Версія лінійної алгебри:

Дозволяє:

z=[y1y¯y2y¯yny¯]z^=[y^1y¯y^2y¯y^ny¯]ϵ=[y1y^1y2y^2yny^n]=zz^

Лінійна регресія (з постійною включеною) розкладає на суму двох векторів: прогноз і залишковийzz^ϵ

z=z^+ϵ

Нехай позначає крапковий продукт . (Більш загально, може бути внутрішнім продуктом .).,.X,Y E[XY]

z,z=z^+ϵ,z^+ϵ=z^,z^+2z^,ϵ+ϵ,ϵ=z^,z^+ϵ,ϵ

Звідки останній рядок випливає з того, що (тобто, що та є ортогональними). Ви можете довести, що і є ортогональними на основі побудови регресії звичайних найменших квадратів .z^,ϵ=0z^ϵ=zz^z^ϵz^

z^ є лінійної проекцією з на підпростір , певне лінійною оболонкою з регресорів , , і т.д .... залишковий є ортогональним для всього цього підпростору, отже, (що лежить в діапазоні , тощо) є ортогональний до .zx1x2ϵz^x1x2ϵ


Зауважте, що як я визначив як крапковий продукт, - це просто інший спосіб написання (тобто SSTO = SSR + SSE).,.z,z=z^,z^+ϵ,ϵi(yiy¯)2=i(y^iy¯)2+i(yiy^i)2


8

Вся суть полягає в тому, що певні вектори є ортогональними, а потім використовують теорему Піфагора.

Розглянемо багатоваріантну лінійну регресію . Ми знаємо, що оцінювачем OLS є . Тепер розглянемо кошторисY=Xβ+ϵβ^=(XtX)1XtY

Y^=Xβ^=X(XtX)1XtY=HY (матрицю H називають також матрицею "hat")

де - ортогональна матриця проекції Y на . Зараз у нас єHS(X)

YY^=YHY=(IH)Y

де - матриця проекції на ортогональний доповнення який є . Таким чином, ми знаємо, що і є ортогональними.(IH)S(X)S(X)YY^Y^

Тепер розглянемо підмодельY=X0β0+ϵ

де і аналогічно маємо оцінку та оцінку OLS та з матрицею проекції на . маємо, що і є ортогональними. І заразX=[X0|X1]β0^Y0^H0S(X0)YY0^Y0^

Y^Y0^=HYH0Y=HYH0HY=(IH0)HY

де знову - ортогональна матриця проекцій на комплементі який є . Таким чином, ми маємо ортогональність і . Отже, врешті-решт маємо(IH0)S(X0)S(X0)Y^Y0^Y0^

||Y-Y^||2=||Y||2-||Y^||2=||Y-Y0^||2+||Y0^||2-||Y^-Y0^||2-||Y0^||2

і нарешті||Y-Y0^||2=||Y-Y^||2+||Y^-Y0^||2

Нарешті, середнє значення є просто при розгляді нульової моделі .Y¯Y0^Y=β0+е


Спасибі за вашу відповідь! Що таке S () (як у S (X) у твоєму дописі)?
блюмаус

S(Х) - це підпростір, згенерований стовпцями матриціХ
Łukasz Grad
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.