Доказ формули LOOCV


18

Зі вступу до статистичного навчання Джеймса та ін., Оцінка одноразової перехресної валідації (LOOCV) визначається де .

CV(n)=1ni=1nMSEi
MSEi=(yiy^i)2

Без доказу рівняння (5.2) зазначає, що для найменших квадратів або поліноміальної регресії (чи стосується це регресія лише на одній змінній мені невідомо), де " є й встроенна значення з початкових найменших квадратів не підходить ( не знаю , що це означає, до речі , чи означає це з використанням усіх точок в наборі даних?) і є кредитне плече » , яке визначаєтьсяуя

CV(n)=1ni=1n(yiy^i1hi)2
y^ih i h i = 1ihi
hi=1n+(xix¯)2j=1n(xjx¯)2.

Як це довести?

Моя спроба: можна почати, помітивши, що але крім з цього (і якщо я нагадаю, що формула справедлива лише для простої лінійної регресії ...), я не впевнений, як діяти звідси.

y^i=β0+i=1kβkXk+some polynomial terms of degree 2
hi

Або ваші рівняння, здається, використовують для більш ніж однієї речі, або я сильно розгублений. У будь-якому випадку додатковою ясністю було б добре. i
Glen_b -Встановіть Моніку

@Glen_b Я щойно дізнався про LOOCV вчора, тому я, можливо, не зрозумів деякі речі правильно. Як я розумію, у вас є набір точок даних, скажімо, . У LOOCV ви маєте для кожного фіксованого (додатного цілого числа) деякий набір перевірки і тестовий набір використовується для створення вбудованої моделі для кожного . Так скажімо, наприклад, ми підходимо до нашої моделі, використовуючи просту лінійну регресію з трьома точками даних, . Ми мали б (буде продовжено)k V k = { ( x k , y k ) } T k = XV k k X = { ( 0 , 1 ) , ( 1 , 2 ) , ( 2 , 3 ) }X={(xi,yi):iZ+}kVk={(xk,yk)}Tk=XVkkX={(0,1),(1,2),(2,3)}
кларнетист

@Glen_b і . Використовуючи точки в , ми можемо виявити, що, використовуючи просту лінійну регресію, ми отримуємо модель . Тоді ми обчислюємо використовуючи як набір валідації, і отримуємо (просто використовуючи задану точку) та , даючи . Гаразд, можливо, використання верхніх сценаріїв було не найкращою ідеєю - я зміню це в оригінальній публікації. Т 1 ={(1,2),(2,3)} Т 1 г я =Х+1СКО V 1 у 1 =1 у ( 1 ) 1 =0+1=1 МСЕ 1 =0V1={(0,1)}T1={(1,2),(2,3)}T1y^i=X+1MSEV1y1=1y^1(1)=0+1=1MSE1=0
Кларнетист

Ось кілька конспектів лекцій на сторінках виведення.iu.edu/ ~dajmcdon/teaching/2014spring/s682/lectures/…
Xavier Bourret Sicotte

Відповіді:


17

Я покажу результат для будь-якої множинної лінійної регресії, незалежно від того, є регресорами поліноми чи ні. Насправді, це показує трохи більше, ніж ви запитували, тому що це показує, що кожен залишок LOOCV ідентичний відповідному залишку, зваженому важелем від повної регресії, а не тільки те, що ви можете отримати помилку LOOCV, як у (5.2) (там Можуть бути й інші способи, за якими середні рівні згодні, навіть якщо не кожен термін у середньому однаковий).Xt

Дозвольте мені сміливо використовувати трохи адаптовані позначення.

Спочатку покажемо, що де - оцінка з використанням усіх даних, а оцінка при відсутності , спостереження . Нехай визначається як векторний рядок таким, що . - залишки.(А) & beta ; & beta ; (т)Х(т)тХт у т=Хт & beta ; у т

β^β^(t)=(u^t1ht)(XX)1Xt,(A)
β^β^(t)X(t)tXty^t=Xtβ^u^t

Доказ використовує наступний матричний алгебраїчний результат.

Нехай - неоднорідна матриця, вектор і скаляр. Якщо Тоді b λ λAbλ (A+λbb)-1

λ1bA1b
(A+λbb)1=A1(λ1+λbA1b)A1bbA1(B) 

Доказ (B) випливає негайно з перевірки

{A1(λ1+λbA1b)A1bbA1}(A+λbb)=I.

Наступний результат корисний для доведення (A)

(X(t)X(t))1Xt=(11ht)(XX)1Xt. (C)

Доказ (C): За (B) маємо, використовуючи , Отже, ми знаходимо ( X ( t ) X ( t ) ) - 1t=1TXtXt=XX(X( t ) X(t))-1Xt

(Х(т)'Х(т))-1=(Х'Х-Хт'Хт)-1=(Х'Х)-1+(Х'Х)-1Хт'Хт(Х'Х)-11-Хт(Х'Х)-1Хт'.
(Х(т)'Х(т))-1Хт'=(Х'Х)-1Хт'+(Х'Х)-1Хт'(Хт(Х'Х)-1Хт'1-Хт(Х'Х)-1Хт')=(11-годт)(Х'Х)-1Хт'.

Доказ (A) тепер випливає з (C): Оскільки нас є або Отже, , де остання рівність випливає з (С).( Х ' ( т ) Х ( т ) + Х ' т Х т ) β

Х'Хβ^=Х'у,
(Х(т)'Х(т)+Хт'Хт)β^=Х(т)'у(т)+Хт'ут,
{Як+(Х(т)'Х(т))-1Хт'Хт}β^=β^(т)+(Х(т)'Х(т))-1Хт'(Хтβ^+у^т).
β^=β^(т)+(Х(т)'Х(т))-1Хт'у^т=β^(т)+(Х'Х)-1Хт'у^т1-годт,

Тепер зверніть увагу на . Помножте на (A) на , додайте з обох сторін і переставляйте, щоб отримати, з залишки, отримані в результаті використання ( ), або годт=Хт(Х'Х)-1Хт'Хтуту^(т)β^(т)ут-Хтβ^(т)

у^(т)=у^т+(у^т1-годт)годт
у^(т)=у^т(1-годт)+у^тгодт1-годт=у^т1-годт

У вашій відповіді відсутнє визначення для . Я припускаю, що це матриця із вилученим рядком . Х(т)ХХт
mpiktas

Також згадується той факт, що також буде корисним. Х'Х=т=1ТХт'Хт
mpiktas

@mpiktas, так, дякую за покажчики. Я відредагував, щоб взяти до уваги перший коментар. Де саме допомогла б друга? Або просто залишити це у вашому коментарі?
Крістоф Ганк

3
Коли ви починаєте доказ (C), ви пишете . Це приємна хитрість, але я сумніваюся, що випадковий читач це усвідомлює. (Х(т)'Х(т))-1=(Х'Х-Хт'Хт)-1
mpiktas

1
Через два роки ... Я ще більше оцінюю цю відповідь, коли я пройшов послідовність лінійних моделей на рівні випускників. Я перевчаю цей матеріал із новою перспективою. Чи є у вас які-небудь запропоновані посилання (підручники?), Які детально проходять виводи, як те, що ви маєте у цій відповіді?
Кларнетист
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.