При лінійній регресії ми часто отримуємо множинні R і R у квадраті. Які відмінності між ними?
При лінійній регресії ми часто отримуємо множинні R і R у квадраті. Які відмінності між ними?
Відповіді:
Великий капітал (на відміну від r 2 ), як правило, повинен бути кратним R 2 в моделі множинної регресії. У двовимірній лінійній регресії немає кратного R , а R 2 = r 2 . Отже, одна відмінність полягає у застосуванні: "кілька R " означає декілька регресорів, тоді як " R 2 " не обов'язково.
Ще одна проста відмінність - інтерпретація. При множинній регресії кратний - коефіцієнт кратної кореляції , тоді як його квадрат - коефіцієнт визначення . R можна інтерпретувати дещо як коефіцієнт двовимірної кореляції , головна відмінність полягає в тому, що множинна кореляція знаходиться між залежною змінною та лінійною комбінацією предикторів, а не будь-якого з них, а не просто середнього рівня цих двовимірних кореляцій. R 2 можна інтерпретувати як відсоток дисперсії у залежній змінній, який можна пояснити предикторами ; як і вище, це також справедливо, якщо є лише один предиктор.
Множину R насправді можна розглядати як кореляцію між відповіддю та встановленими значеннями. Як такий, він завжди позитивний. Кілька R-квадратів - це його версія у квадраті.
Дозвольте проілюструвати, використовуючи невеликий приклад:
set.seed(32)
n <- 100
x1 <- runif(n)
x2 <- runif(n)
y <- 4 + x1 - 2*x2 + rnorm(n)
fit <- lm(y ~ x1 + x2)
summary(fit) # Multiple R-squared: 0.2347
(R <- cor(y, fitted(fit))) # 0.4845068
R^2 # 0.2347469
Я просто пояснюю своїм студентам, що:
кратне R слід вважати абсолютним значенням коефіцієнта кореляції (або коефіцієнта кореляції без від'ємного знака)!
R-квадрат є просто квадратом множини R. Він може бути дорівнює відсотку варіації, викликаного незалежною змінною
Легко зрозуміти поняття та різницю таким чином.