Як у регресії обчислюються стандартні похибки коефіцієнтів?


114

Для мого власного розуміння, мені цікаво реплікувати обчислення стандартних похибок оцінених коефіцієнтів, як, наприклад, з вихідною lm()функцією в R, але не змогли її зафіксувати. Для чого використовується формула / реалізація?


8
Добре запитання, багато людей знають регресію з точки зору лінійної алгебри, де ви вирішуєте лінійне рівняння і отримуєте відповідь на бета-версію. Не ясно, чому ми маємо за собою стандартну помилку та припущення. XXβ=Xy
Haitao Du

Відповіді:


122

Лінійна модель записується як де позначає вектор відповідей, - вектор параметрів фіксованих ефектів, - відповідна матриця проектування, стовпці якої - значення пояснювальних змінних, а - вектор випадкових помилок.

|y=Xβ+ϵϵN(0,σ2I),
yβXϵ

Добре відомо, що оцінка дається (див., Наприклад, статтю у Вікіпедії ) Звідси [нагадування: , для деякого випадкового вектора та деякої невипадкової матриці ]β

β^=(XX)1Xy.
Var(β^)=(XX)1Xσ2IX(XX)1=σ2(XX)1,
Var(AX)=A×Var(X)×AXA

так що де можна отримати похибкою середнього квадрату (MSE) в таблиці ANOVA.

Var^(β^)=σ^2(XX)1,
σ^2

Приклад з простою лінійною регресією в R

#------generate one data set with epsilon ~ N(0, 0.25)------
seed <- 1152 #seed
n <- 100     #nb of observations
a <- 5       #intercept
b <- 2.7     #slope

set.seed(seed)
epsilon <- rnorm(n, mean=0, sd=sqrt(0.25))
x <- sample(x=c(0, 1), size=n, replace=TRUE)
y <- a + b * x + epsilon
#-----------------------------------------------------------

#------using lm------
mod <- lm(y ~ x)
#--------------------

#------using the explicit formulas------
X <- cbind(1, x)
betaHat <- solve(t(X) %*% X) %*% t(X) %*% y
var_betaHat <- anova(mod)[[3]][2] * solve(t(X) %*% X)
#---------------------------------------

#------comparison------
#estimate
> mod$coef
(Intercept)           x 
   5.020261    2.755577 

> c(betaHat[1], betaHat[2])
[1] 5.020261 2.755577

#standard error
> summary(mod)$coefficients[, 2]
(Intercept)           x 
 0.06596021  0.09725302 

> sqrt(diag(var_betaHat))
                    x 
0.06596021 0.09725302 
#----------------------

Коли є одна пояснювальна змінна, модель зводиться до та щоб і формули стають більш прозорими. Наприклад, стандартна помилка розрахункового схилу -

yi=a+bxi+ϵi,i=1,,n
X=(1x11x21xn),β=(ab)
(XX)1=1nxi2(xi)2(xi2xixin)
Var^(b^)=[σ^2(XX)1]22=nσ^2nxi2(xi)2.
> num <- n * anova(mod)[[3]][2]
> denom <- n * sum(x^2) - sum(x)^2
> sqrt(num / denom)
[1] 0.09725302

Дякую за ретельну відповідь. Отже, я вважаю, що остання формула не стосується багатовимірного випадку?
АКО

1
Ні, остання формула працює лише для конкретної матриці X простої лінійної моделі. У багатоваріантному випадку вам доведеться використовувати загальну формулу, подану вище.
окрам

4
+1, швидке запитання, як походить ? Var(β^)
авокадо

6
@loganecolss: Він виходить з того , що для деякого випадкового вектора і деякою невипадковою матриці . Var(AX)=AVar(X)AXA
окрам

4
зауважте, що це правильні відповіді для підрахунку рук, але реальна реалізація, яка використовується в lm.fit/ summary.lm, трохи відрізняється, для стабільності та ефективності ...
Бен Болкер

26

Формули для них можна знайти в будь-якому проміжному тексті статистики, зокрема, їх можна знайти в Sheather (2009, глава 5) , звідки також взята наступна вправа (стор. 138).

Наведений нижче код R обчислює оцінки коефіцієнтів та їх стандартні помилки вручну

dfData <- as.data.frame(
  read.csv("http://www.stat.tamu.edu/~sheather/book/docs/datasets/MichelinNY.csv",
                   header=T))

# using direct calculations
vY <- as.matrix(dfData[, -2])[, 5]                        # dependent variable
mX <- cbind(constant = 1, as.matrix(dfData[, -2])[, -5])  # design matrix

vBeta <- solve(t(mX)%*%mX, t(mX)%*%vY)                    # coefficient estimates
dSigmaSq <- sum((vY - mX%*%vBeta)^2)/(nrow(mX)-ncol(mX))  # estimate of sigma-squared
mVarCovar <- dSigmaSq*chol2inv(chol(t(mX)%*%mX))          # variance covariance matrix
vStdErr <- sqrt(diag(mVarCovar))                          # coeff. est. standard errors
print(cbind(vBeta, vStdErr))                              # output

що виробляє вихід

                         vStdErr
constant   -57.6003854 9.2336793
InMichelin   1.9931416 2.6357441
Food         0.2006282 0.6682711
Decor        2.2048571 0.3929987
Service      3.0597698 0.5705031

Порівняйте з результатом lm():

# using lm()
names(dfData)
summary(lm(Price ~ InMichelin + Food + Decor + Service, data = dfData))

який виробляє вихід:

Call:
lm(formula = Price ~ InMichelin + Food + Decor + Service, data = dfData)

Residuals:
    Min      1Q  Median      3Q     Max 
-20.898  -5.835  -0.755   3.457 105.785 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) -57.6004     9.2337  -6.238 3.84e-09 ***
InMichelin    1.9931     2.6357   0.756    0.451    
Food          0.2006     0.6683   0.300    0.764    
Decor         2.2049     0.3930   5.610 8.76e-08 ***
Service       3.0598     0.5705   5.363 2.84e-07 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1 

Residual standard error: 13.55 on 159 degrees of freedom
Multiple R-squared: 0.6344, Adjusted R-squared: 0.6252 
F-statistic: 68.98 on 4 and 159 DF,  p-value: < 2.2e-16 

Хороший трюк з solve()функцією. Це було б трохи довше без матричної алгебри. Чи є стислий спосіб виконання цієї конкретної лінії лише з базовими операторами?
АКО

1
@AkselO Існує відомий вираз із закритою формою для оцінки OLS, , яку ви можете обчислити, чітко обчисливши обернену матрицю ( (як це зробив @ ocram), але це стає непростим з умовно обумовленими матрицями. β^=(XX)1XY(XX)
чакраварти

0

Частина відповіді Ocram - неправильна. Насправді:

β^=(XX)1Xy(XX)1Xϵ.

E(β^)=(XX)1Xy.

І коментар першої відповіді показує, що потрібно більше пояснення дисперсії коефіцієнта:

Var(β^)=E(β^E(β^))2=Var((XX)1Xϵ)=(XX)1Xσ2IX(XX)1=σ2(XX)1


Редагувати

Дякую, я проігнорував шапку бета-версії. Вирахування вище . Правильний результат:wronglywrong

1.(Щоб отримати це рівняння, встановіть похідну першого порядку на рівну нулю, для максимізації )β^=(XX)1Xy.SSRβSSR

2.E(β^|X)=E((XX)1X(Xβ+ϵ)|X)=β+((XX)1X)E(ϵ|X)=β.

3.Var(β^)=E(β^E(β^|X))2=Var((XX)1Xϵ)=(XX)1Xσ2IX(XX)1=σ2(XX)1

Сподіваємось, це допомагає.


1
Виведення оцінки OLS для бета-вектора, , знайдене в будь-якому гідному підручнику регресії. Зважаючи на це, чи можете ви надати доказ того, що це має бути замість цього? β^=(XX)1XYβ^=(XX)1Xy(XX)1Xϵ
gung

4
Ваш навіть не оцінювач, оскільки не спостерігається! β^ϵ
whuber

Це також можна переглянути у цьому відео: youtube.com/watch?v=jyBtfhQsf44
StatsStudent
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.