Що означає "всі інші рівні" при множинній регресії?


22

Коли ми робимо кілька регресій і кажемо, що ми дивимось на середню зміну змінної y для зміни змінної x , тримаючи всі інші змінні постійними, за яких значень ми тримаємо інші змінні постійними? Їхнє значення? Нуль? Будь-яке значення?

Я схильний думати, що це має будь-яку цінність; просто шукаю роз'яснення. Якби хтось мав доказ, це теж було б чудово.


2
Я знайшов приклад 10 у статті Пітера Кеннеді дуже корисним для розуміння цього.
Мастеров Дмитро Васильович

Так, дещо про збільшення кількості кімнат при збереженні постійних квадратних футів є дійсно спостережливим моментом. Цей документ є дійсно золотим копальником корисних ідей, він йдеться в доповідях доктора наук.
EconStats

1
Це насправді дуже цікаве запитання, мені цікаво, чи економісти запитують себе, що саме означає "Ceteris paribus".
mugen

Відповіді:


26

Ти правий. Технічно це будь-яка цінність . Однак, коли я навчаю це, я зазвичай кажу людям, що ви отримуєте ефект зміни однієї одиниці на коли всі інші змінні утримуються відповідними засобами. Я вважаю, що це звичайний спосіб пояснити це, що не є для мене специфічним. Xj

Зазвичай я зазначу, що якщо у вас немає ніяких взаємодій, буде наслідком зміни однієї одиниці на X j , незалежно від значень інших змінних. Але мені подобається починати із середньої рецептури. Причина полягає в тому, що є два ефекти включення декількох змінних у регресійну модель. По-перше, ви отримуєте ефект управління X j для інших змінних (див. Мою відповідь тут ). Друга полягає в тому, що наявність інших змінних (як правило) зменшує залишкову дисперсію моделі, роблячи ваші змінні (включаючи X jβjXjXjXj) 'більш значущий'. Людям важко зрозуміти, як це працює, якщо інші змінні мають значення, які є повсюдно. Схоже, це міг би якось збільшити мінливість. Якщо ви думаєте коригувати кожну точку даних вгору або вниз для значення кожної іншої змінної, поки всі інші змінні не будуть переміщені до відповідних засобів, то легше помітити, що залишкова змінність була зменшена. X

Я не дістаюсь до взаємодії, поки клас чи два після того, як я представив основи множинної регресії. Однак, коли я дістаюсь до них, я повертаюся до цього матеріалу. Вище , застосовується , коли НЕ взаємодія. Коли є взаємодії, це складніше. У цьому випадку взаємодіюча змінна [s] утримується постійною (дуже конкретно) при , і не має іншого значення. 0

Якщо ви хочете побачити, як це алгебраїчно відображається, це досить прямо. Ми можемо почати із випадку без взаємодії. Визначимо зміну Y , коли всі інші змінні залишаються постійними на їх відповідних коштів. Без обмеження спільності, припустимо , що є три X змінні , і ми зацікавлені в тому розумінні , як зміна Y пов'язано зі зміною в один блок в X 3 , тримаючи X 1 і X 2 константи в їх відповідних коштів: Y^XY^X3X1X2

Y^i=β^0+β^1X¯1+β^2X¯2+β^3X3iY^i=β^0+β^1X¯1+β^2X¯2+β^3(X3i+1) subtracting the first equation from the second: Y^iY^i=β^0β^0+β^1X¯1β^1X¯1+β^2X¯2β^2X¯2+β^3(X3i+1)β^3X3iΔY=β^3X3i+β^3β^3X3iΔY=β^3

Now it is obvious that we could have put any value in for X1 and X2 in the first two equations, so long as we put the same value for X1 (X2) in both of them. That is, so long as we are holding X1 and X2 constant.

On the other hand, it does not work out this way if you have an interaction. Here I show the case where there is an X1X3 interaction term:

Y^i=β^0+β^1X¯1+β^2X¯2+β^3X3i +β^4X¯1X3iY^i=β^0+β^1X¯1+β^2X¯2+β^3(X3i+1)+β^4X¯1(X3i+1) subtracting the first equation from the second: Y^iY^i=β^0β^0+β^1X¯1β^1X¯1+β^2X¯2β^2X¯2+β^3(X3i+1)β^3X3i+ β^4X¯1(X3i+1)β^4X¯1X3iΔY=β^3X3i+β^3β^3X3i+β^4X¯1X3i+β^4X¯1β^4X¯1X3iΔY=β^3+β^4X¯1

In this case, it is not possible to hold all else constant. Because the interaction term is a function of X1 and X3, it is not possible to change X3 without the interaction term changing as well. Thus, β^3 equals the change in Y^ associated with a one unit change in X3 only when the interacting variable (X1) is held at 0 instead of X¯1 (or any other value but 0), in which case the last term in the bottom equation drops out.

In this discussion, I have focused on interactions, but more generally, the issue is when there is any variable that is a function of another such that it is not possible to change the value of the first without changing the respective value of the other variable. In such cases, the meaning of β^j becomes more complicated. For example, if you had a model with Xj and Xj2, then β^j is the derivative dYdXj holding all else equal, and holding Xj=0 (see my answer here). Other, still more complicated formulations are possible as well.


1
Thanks gung, this answer is great on a couple of levels. Firstly it answers the main point I was interested in. Secondly, you predicted what my follow up question would be, because I was going to ask how this changed with the introduction of interaction terms. Thanks for the math as well. I know this question is kind of basic but I feel that you can never be too explicit with these concepts.
EconStats

You're welcome, @EconStats. There is no problem with including the math, sometimes it makes it much easier to understand what is going on.
gung - Reinstate Monica

Well I have to say that when you subtracted the first equation from the second equation it finally confirmed my original thoughts that it doesn't matter what the values of X2 and X3 are, as long as the are the same in both equations. It seems so obvious to me know but I had never thought about calculating the β that way before. Definite light bulb moment for me.
EconStats

You can also take the derivative of Y wrt Xj and it will get you to the same place, but this is easier math (essentially high-school algebra), so it will be accessible to a broader audience.
gung - Reinstate Monica

1
@beetroot, if I understand you correctly, you just hold it at a specified level. (Otherwise, you might ask this as a new question.)
gung - Reinstate Monica

8

The math is simple, just take the difference between 2 models with one of the x variables changed by 1 and you will see that it does not matter what the other variables are (given there are no interactions, polynomial, or other complicating terms).

One example:

y[1]=b0+b1×x1+b2×x2

y[2]=b0+b1×(x1+1)+b2×x2

y[2]y[1]=b0b0+b1×x1b1×x1+b1×1+b2×x2b2×x2=b1


6

I believe you are referring to dependence in covariates (Xi). So if the model is

Y=β0+β1X1+β2X2
the effect of Xi on Y all other things being equal would be ΔYΔXi for any ΔXi with all other Xj held constant at any value.

Keep in mind that is possible that X1 and X2 are dependent (e.g. functions of each other) without necessarily showing a significant interaction in the linear model (β12=0 in Y=β0+β1X1+β2X2+β12X1X2).

Just as an interesting tangent here is an example: Let X1N(0,σ12) and X2=X12+N(0,σ22) then clearly any change in X1 will affect X2. However the covariance between the two is zero.

cov(X1,X2)=E(X1X2)E(X1)E(X2)
=E[X1(X12+a)]E(X1).E(X12a)withaN(0,σ22)
=E(X13)E(X1.a)0.E(X12a)=000=0

So in reality a change in X1 would be associated with a change in X2 and that ΔYΔXi would not cover what really would occur if you alter X1. But ΔYΔXi would still be described as the effect of Xi on Y all things being equal.

This is comparable to the difference between a full derivative and a partial derivate (the analog of ΔYΔXi) in a differential equation.


Thanks Hans, I was actually trying to get at the point that gung made but this is a good example for when the two variables are dependent.
EconStats
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.