Як визначити різницю між лінійними та нелінійними моделями регресії?


27

Я читав наступне посилання на нелінійну регресію SAS нелінійної . Моє розуміння з прочитання першого розділу "Нелінійна регресія проти лінійної регресії" полягала в тому, що рівняння нижче є фактично лінійною регресією, чи правильно це? Якщо так, чому?

y=b1x3+b2x2+b3x+c

Чи я також повинен розуміти, що в нелінійній регресії мультиколінеарність не є проблемою? Я знаю, що мультиколінеарність може бути проблемою в лінійній регресії, так що, якщо б модель вище насправді була лінійною регресією, була б мультиколінеарність?


Тісно пов’язані: stats.stackexchange.com/questions/33876 .
whuber

Відповіді:


35

Існують (принаймні) три почуття, в яких регресію можна вважати "лінійною". Щоб їх розрізнити, почнемо з надзвичайно загальної регресійної моделі

Y=f(Х,θ,ε).

Щоб зробити дискусію простою, візьміть незалежні змінні щоб їх фіксували та точно вимірювали (а не випадкові змінні). Вони моделюють п спостереження р атрибутів кожного, що призводить до п вектор відповідей Y . Умовно X представлено у вигляді матриці n × p, а Y як стовпчика n- вектора. (Скінченний q -вектор) θ включає параметри . ε - векторна значення випадкової величини. Зазвичай вона має nХнpнYХн×pYнqθεнкомпонентів, але іноді має менше. Функція має векторну оцінку (з n компонентами відповідає Y ) і зазвичай приймається безперервною у своїх двох останніх аргументах ( θ і ε ).fнYθε

Архетипний приклад пристосування рядка до даних - це випадок, коли X - вектор чисел ( x i ,(х,у)Х - значення x; Y - паралельний вектор з n чисел ( y i ) ; θ = ( α , β ) дає перехоплення α і нахил β ; і ε = ( ε 1 , ε 2 , , ε n )(хi,i=1,2,,н)Yн(уi)θ=(α,β)αβε=(ε1,ε2,,εn)є вектором "випадкових помилок", компоненти яких є незалежними (і зазвичай передбачається, що вони мають однакові, але невідомі розподіли середнього нуля). У попередній нотації:

yi=α+βxi+εi=f(X,θ,ε)i

при .θ=(α,β)

Функція регресії може бути лінійною в будь-якому (або в усіх) трьох її аргументах:

  • "Лінійна регресія або" лінійна модель "звичайно означає, що лінійна як функція параметрів θ . Значення SAS" нелінійної регресії " є в цьому сенсі, з доданим припущенням, що f є диференційованим у своєму другому аргументі (параметри) Це припущення полегшує пошук рішень.f θf

  • А «лінійна залежність між і Y » означає F є лінійним в якості опції X .XYfX

  • Модель має додаткові помилки, коли лінійно в ε . У таких випадках завжди вважається, що E ( ε ) = 0 . (Інакше було б неправильно вважати ε як "помилки" або "відхилення" від "правильних" значень.)fεE(ε)=0ε

Будь-яке можливе поєднання цих характеристик може статися і є корисним. Давайте дослідимо можливості.

  1. Лінійна модель лінійного зв’язку з адитивними помилками. Це звичайна (множинна) регресія, вже викладена вище і загалом написана як

    Y=Xθ+ε.

    було доповнено за необхідності приєднанням до стовпця констант, а θ - р -вектор.Xθp

  2. Лінійна модель нелінійного зв’язку з адитивними помилками. Це може бути витримано в множинноїрегресії, доповнюючи стовпці з нелінійними функціями X самі. Наприклад,XX

    yi=α+βxi2+ε

    є такою формою. Він лінійний у ; він має додаткові помилки; і вона лінійна у значеннях ( 1 , x 2 i ), хоча x 2 i є нелінійною функцією x i .θ=(α,β)(1,xi2)xi2xi

  3. Лінійна модель лінійного взаємозв'язку з неадаптивними помилками. Приклад - мультиплікативна помилка,

    yi=(α+βxi)εi.

    (У таких випадках можна інтерпретувати як "мультиплікативні помилки", коли розташування ε i дорівнює 1. Однак, власне відчуття розташування вже не обов'язково є очікуванням E ( ε i )) : це може бути медіана або Наприклад, середнє геометричне значення. Подібний коментар щодо припущень про місцеположення застосовується, mutatis mutandis , і в усіх інших контекстах помилок, що не стосуються добавок.)εiεi1E(εi)

  4. Лінійна модель нелінійного взаємозв'язку з невідкладними помилками. Наприклад ,

    yi=(α+βxi2)εi.
  5. Нелінійна модель лінійного зв’язку з адитивними помилками. Нелінійна модель включає комбінації своїх параметрів, які не тільки є нелінійними, вони навіть не можуть бути лінеаризовані шляхом повторного вираження параметрів.

    • В якості неприкладу розглянемо

      yi=αβ+β2xi+εi.

      Визначаючи і β = β 2 та обмежуючи β 0 , цю модель можна переписатиα=αββ=β2β0

      yi=α+βxi+εi,

      демонструючи його як лінійну модель (лінійного зв’язку з помилками добавки).

    • Як приклад, розглянемо

      yi=α+α2xi+εi.

      Неможливо знайти новий параметр , залежно від α , який буде лінеаризувати це як функцію α (зберігаючи його лінійним також у x i ).αααxi

  6. Нелінійна модель нелінійного зв’язку з адитивними помилками.

    yi=α+α2xi2+εi.
  7. Нелінійна модель лінійного взаємозв'язку з невідкладними помилками.

    yi=(α+α2xi)εi.
  8. Нелінійна модель нелінійного зв’язку з невідкладними помилками.

    yi=(α+α2xi2)εi.

Хоча вони демонструють вісім різних форм регресії, вони не є системою класифікації, оскільки одні форми можуть бути перетворені в інші. Стандартний приклад - перетворення лінійної моделі з неадаптивними помилками (передбачається, що вони мають позитивну підтримку)

yi=(α+βxi)εi

log(yi)=μi+log(α+βxi)+(log(εi)μi)

μi=E(log(εi)) has been removed from the error terms (to ensure they have zero means, as required) and incorporated into the other terms (where its value will need to be estimated). Indeed, one major reason to re-express the dependent variable Y is to create a model with additive errors. Re-expression can also linearize Y as a function of either (or both) of the parameters and explanatory variables.


Collinearity

Collinearity (of the column vectors in X) can be an issue in any form of regression. The key to understanding this is to recognize that collinearity leads to difficulties in estimating the parameters. Abstractly and quite generally, compare two models Y=f(X,θ,ε) and Y=f(X,θ,ε) where X is X with one column slightly changed. If this induces enormous changes in the estimates θ^ and θ^, then obviously we have a problem. One way in which this problem can arise is in a linear model, linear in X (that is, types (1) or (5) above), where the components of θ are in one-to-one correspondence with the columns of X. When one column is a non-trivial linear combination of the others, the estimate of its corresponding parameter can be any real number at all. That is an extreme example of such sensitivity.

From this point of view it should be clear that collinearity is a potential problem for linear models of nonlinear relationships (regardless of the additivity of the errors) and that this generalized concept of collinearity is potentially a problem in any regression model. When you have redundant variables, you will have problems identifying some parameters.


can you recommend a concise, introductory reading that will help me get a better sense of the linearization you mention, which is the heart of the difference between your example and non-example in point 5. Thank you.
ColorStatistics

@Color I'm not familiar with any. Under mild assumptions about the differentiability of possible transformations, this is addressed by the theory of Partial Differential Equations (PDEs).
whuber

0

You should start right now by making a difference between reality and the model you're using to describe it

The equation you just mentionned is a polynomial equation (x^power) ie. non-linear ... but you can still model it using a generlized linear model (using a link function) or polynomail regression since the parameters are linear (b1, b2, b3, c)

hope that helped, it actually is a bit sketchy : reality/model


3
This can be estimated via ordinary least squares since model is linear in parameters.
Analyst

so its all to do with the parameters? if we b3^2 * x it would still be linear?
mHelpMe

0

A model is linear if it is linear in parameters or can be transformed to be linear in parameters (linearizable). Linear models can model linear or non-linear relationships. Let's expand on each of these.

A model is linear in parameters if it can be written as the sum of terms, where each term is either a constant or a parameter multiplying a predictor (Xi):

enter image description here

Note that this definition is very narrow. Only the models meeting this definition are linear. Every other model, is non-linear.

There are a two types of linear models that are confused for non-linear models:

1. Linear models of non-linear relationships

For example, the model below models a non-linear relationship (because the derivative of Y with respect to X1 is a function of X1). By creating a new variable W1=X12, and re-writing the equation with W1 replacing X12, we have an equation that satisfies the definition of a linear model.

enter image description here

2. Models that aren't immediately linear but can become linear after a transformation (linearizable). Below are 2 examples of linearizable models:

Example 1:

enter image description here

This model may appear to be non-linear because it does not meet the definition of a model that is linear in parameters, however it can be transformed into a linear model hence it is linearizable/transformably linear, and is thus considered to be a linear model. The following transformations would linearize it. Start by taking the natural logarithm of both sides to obtain:

enter image description here

then make the following substitutions:

enter image description here

to obtain the linear model below:

enter image description here

Example 2:

enter image description here

This model may appear to be non-linear because it does not meet the definition of a model that is linear in parameters, however it can be transformed into a linear model hence it is linearizable/transformably linear, and is thus considered to be a linear model. The following transformations would linearize it. Start by taking the reciprocal of both sides to obtain:

enter image description here

then make the following substitutions:

enter image description here

to obtain the linear model below:

enter image description here

Any model that is not linear (not even through linearization) is non-linear. Think of it this way: If a model does not meet the definition of a linear model then it is a non-linear model, unless it can be proven to be linearizable, at which point it earns the right to be called a linear model.

Whuber's answer above as well as the Glen_b's answer in this link will add more color to my answer. Nonlinear vs. generalized linear model: How do you refer to logistic, Poisson, etc. regression?

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.