Чому припущення нормальності в лінійній регресії


15

Моє запитання дуже просте: чому ми обираємо нормальне як розподіл, за яким слід термін помилки, припускаючи лінійну регресію? Чому ми не обираємо інших, таких як уніформа, т чи інше?


5
Ми не обираємо нормальне припущення. Так буває, що коли помилка є нормальною, модельні коефіцієнти точно відповідають нормальному розподілу, і точний F-тест може бути використаний для перевірки гіпотез про них.
АдамО

10
Тому що математика працює досить легко, щоб люди могли використовувати її перед сучасними комп’ютерами.
Nat

1
@AdamO я не розумію; Ви просто окреслили причини, чому ми обираємо це.
JiK

2
@JiK Якби я міг вибрати дистрибуції, статистики взагалі не було б. Весь світ був би ймовірним.
АдамО

1
@AdamO Ви можете вибирати припущення для своєї моделі, коли робите статистичні умовиводи, тому я не думаю, що це означає, що статистики немає.
JiK

Відповіді:


29

Ми обираємо інші розподіли помилок. У багатьох випадках це можна зробити досить легко; якщо ви використовуєте максимальну оцінку ймовірності, це змінить функцію втрат. Це, безумовно, робиться на практиці.

Лаплас (подвійні експоненціальні помилки) відповідають найменш абсолютним відхиленням регресії / L1 регресії (про які обговорюють численні публікації на сайті). Регресії з t-помилками використовуються періодично (в деяких випадках тому, що вони більш стійкі до грубих помилок), хоча вони можуть мати і недолік - ймовірність (а отже, і негативний збиток) може мати кілька режимів.

Уніфіковані помилки відповідати L втрат (мінімізувати максимальне відхилення); таку регресію іноді називають наближенням Чебишева (правда, будьте обережні, оскільки є ще одна річ з по суті такою ж назвою). Знову ж таки, це робиться іноді (насправді для простої регресії та невеликих наборів даних із обмеженими помилками з постійним поширенням пристосування часто досить легко знайти вручну, прямо на графіку, хоча на практиці можна використовувати лінійні методи програмування або інші алгоритми дійсно, проблеми регресії L та L1 є дуалами один одного, що може призвести до деколи зручних ярликів деяких проблем).

Насправді ось приклад моделі "рівномірної помилки", встановленої до даних вручну:

L-нескінченна регресія, встановлена ​​вручну.  Позначено дві "найнижчі" точки під смужкою точок даних, а дві "найвищі" точки над смужкою даних.

Легко визначити (просунувши випрямлений напрямок у бік даних), що чотири позначені точки є єдиними кандидатами для участі в активному наборі; три з них фактично формуватимуть активний набір (і трохи перевіривши, незабаром визначається, які три ведуть до вузької смуги, яка охоплює всі дані). Лінія в центрі цієї смуги (позначена червоним кольором) є максимальною оцінкою ймовірності лінії.

Можливо багато інших варіантів вибору моделі, і досить багато їх застосовується на практиці.

Зауважте, що якщо у вас є адитивні, незалежні помилки з постійним поширенням з щільністю форми kexp(c.g(ε)) , максимізація ймовірності буде відповідати мінімумуig(ei) , деei представляю собоюi - го залишку.

Однак є цілий ряд причин того, що найменші квадрати - це популярний вибір, багато з яких не потребують припущення про нормальність.


2
Чудова відповідь. Не хотіли б ви додати кілька посилань, які дають більше деталей щодо того, як ці варіанти використовуються на практиці?
rgk

(+1) Відмінна відповідь. Ви б не хотіли поділитися R-кодом, який використовується для встановлення лінії -Regression? L
COOLSerdash

1
Як я пояснював у тексті, я підходив до нього вручну, дуже схожим на описаний нами підхід. Хоча це можна зробити досить легко за допомогою коду, я буквально відкрив сюжет в MS Paint і визначив три точки в активному наборі (з'єднання двох з яких дало схил) - і потім перемістив лінію на півдорозі до третьої точки (вдвічі зменшивши вертикальну відстань у пікселях і перемістивши лінію вгору на стільки пікселів) - справа в тому, щоб продемонструвати, наскільки це може бути просто. Дитину можна було б навчити робити це.
Glen_b -Встановити Моніку

@Glen_b Дійсно, я був підлітком, коли мене вчили робити саме це в лабораторії фізики першокурсника.
Петро Леопольд

9

Нормальне / гауссова припущення часто використовується, оскільки це найбільш зручний для обчислень вибір. Обчислення максимальної оцінки ймовірності коефіцієнтів регресії є квадратичною проблемою мінімізації, яку можна вирішити за допомогою чистої лінійної алгебри. Інші варіанти розподілу шуму дають складніші проблеми оптимізації, які зазвичай доводиться вирішувати чисельно. Зокрема, проблема може бути невипуклою, створюючи додаткові ускладнення.

Нормальність не обов'язково є загальним припущенням загалом. Нормальний розподіл має дуже легкі хвости, і це робить оцінку регресії досить чутливою до людей, що вижили. Такі альтернативи, як розподіл Лапласа або Стьюдента, часто є вищими, якщо дані вимірювань містять інше.

Додаткову інформацію див. У настійній книзі Пітера Хубера.


2

Працюючи з цими гіпотезами, регресія на основі квадратних помилок та максимальна ймовірність дають вам те саме рішення. Ви також можете отримати прості F-тести на значення коефіцієнта, а також довірчі інтервали для ваших прогнозів.

На закінчення, причиною, чому ми часто обираємо нормальний розподіл, є його властивості, які часто полегшують справи. Це також не дуже обмежувальне припущення, оскільки багато інших типів даних будуть поводитись «як правило»

У будь-якому випадку, як було сказано в попередній відповіді, є можливості визначити регресійні моделі для інших розподілів. Нормальне, як правило, є найбільш рецидивуючим


2

Glen_b славно пояснив , що МНК може бути узагальнено (максимізація ймовірності замість мінімізації суми квадратів) , і ми робимо вибір інших дистрибутивів.

Однак чому нормальний розподіл вибирають так часто ?

Причина в тому, що нормальний розподіл відбувається в багатьох місцях природним шляхом. Це трохи так само, як ми часто бачимо золоте співвідношення або числа Фібоначчі, що виникають "спонтанно" в різних місцях природи.

Нормальний розподіл - це обмежуючий розподіл для суми змінних з кінцевою дисперсією (або можливі також менш жорсткі обмеження). І, не приймаючи обмеження, це також є гарним наближенням до суми кінцевої кількості змінних. Отже, оскільки багато спостережуваних помилок трапляються як сума безлічі невеликих непомічених помилок, нормальний розподіл є хорошим наближенням.

Дивіться також тут Важливість нормального розподілу

де бобові машини Галтона інтуїтивно показують цей принцип

https://upload.wikimedia.org/wikipedia/commons/7/7f/Quincunx_%28Galton_Box%29_-_Galton_1889_diagram.png


-1

Чому ми не обираємо інші дистрибуції?

yiRxiRnxi

y^i=wxi.

Несподівана втрата, як правило, є найбільш розумною втратою:

L=logP(yixi).

Ви можете вважати лінійну регресію як використання нормальної щільності з фіксованою дисперсією у наведеному вище рівнянні:

L=logP(yixi)(yiy^i)2.

Це призводить до оновлення ваги:

wL=(y^iyi)xi


Загалом, якщо ви використовуєте інший експоненціальний розподіл сім'ї, цю модель називають узагальненою лінійною моделлю . Різний розподіл відповідає різній щільності, але його можна легше формалізувати, змінивши передбачення, вагу та ціль.

WRн×к

у^iг(Wхi)

де г:RкRкназивається функцією зв'язку або градієнтним журналом-нормалізатором . І, цільуiзмінюється на вектор, який називається достатньою статистикою уi=Т(уi)Rк.

Кожна функція посилання та достатня статистика відповідає різному припущенню щодо розподілу, про що йдеться у вашому питанні. Щоб зрозуміти, чому, давайте розглянемо функцію щільності сімейства безперервного значення з природними параметрамиη:

f(z)=h(z)exp(ηT(z)g(η)).

Let the natural parameters η be wxi, and evaluate the density at the observed target z=yi. Then, the loss gradient is

WL=Wlogf(x)=(g(Wxi))xiT(yi)xi=(u^iui)xi,
which has the same nice form as linear regression.


As far as I know, the gradient log-normalizer can be any monotonic, analytic function, and any monotonic, analytic function is the gradient log-normalizer of some exponential family.


This is very short and too cryptic for our standards, please also explain surprisal.
kjetil b halvorsen

1
"each link function corresponds to a different distributional assumption" this is very vague. The link function does not have to do with generalizing to different distributional assumptions, but with generalizing the (linear) part that describes the mean of the distribution.
Sextus Empiricus

1
The linked article contains in section '3.1 Normal distribution' > "More generally, as shown in Nelder (1968), we can consider models in which there is a linearizing transformation f and a normalizing transformation g" I do not know what your gradient log-normalizer refers to, and maybe you are speaking about this normalizing transformation? But, that is not the link function. The link function in GLM relates to the linearizing transformation.
Sextus Empiricus

1
Typically certain link functions are used with certain distributional assumptions. But this is not a necessity. So my distributional assumptions are normal in that example, and not Poisson (that was intentional). Some better (more practical and well known) examples are binomial/Bernouilli distributed variables where people work with a probit model or a logit model, thus different link functions but the same (conditional) distributional assumption.
Sextus Empiricus

1
@Neil G: I'm the lazy one? You could easily have included surprisal in the original post, yes? Also, when I am making such comments, is is more for the site than for myself. This site is supposed to be self-contained. I could have/did guess the meaning (even if it is nonstandard terminology in statistics), as you can see from my answer here, entropy
kjetil b halvorsen
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.