Зокрема, я маю на увазі коефіцієнт кореляції Pearson продукт-момент.
Зокрема, я маю на увазі коефіцієнт кореляції Pearson продукт-момент.
Відповіді:
Яка різниця між кореляцією між і і лінійною регресією, що передбачає від ?Y Y X
По-перше, деякі подібності :
По-друге, деякі відмінності :
lm
і cor.test
в R
, дасть однакові p-значення.
Ось відповідь, яку я опублікував на веб-сайті graphpad.com :
Кореляція та лінійна регресія - не однакові. Розглянемо ці відмінності:
У випадку одинарного прогнозу лінійної регресії стандартизований нахил має те саме значення, що і коефіцієнт кореляції. Перевага лінійної регресії полягає в тому, що зв'язок може бути описаний таким чином, що ви можете передбачити (виходячи з співвідношення між двома змінними) бал за прогнозованою змінною з урахуванням будь-якого конкретного значення змінної предиктора. Зокрема, один фрагмент інформації лінійною регресією дає вам те, що кореляція не є перехопленням, значенням передбачуваної змінної, коли прогноктор дорівнює 0.
Якщо коротко - вони дають однакові результати обчислювально, але є більше елементів, які здатні інтерпретувати в простому лінійному регресії. Якщо вам цікаво просто охарактеризувати величину взаємозв'язку між двома змінними, використовуйте кореляцію - якщо вам цікаво передбачити або пояснити свої результати з точки зору конкретних значень, ви, мабуть, хочете регресії.
Кореляційний аналіз лише кількісно визначає співвідношення двох змінних, ігноруючи, що є залежною змінною, а яка є незалежною. Але перед тим, як застосувати регресію, потрібно прояснити вплив тієї змінної, яку потрібно перевірити на іншій змінній.
Усі наведені відповіді поки що дають важливу інформацію, але не слід забувати, що ви можете перетворити параметри одного в інший:
Регресія:
Зв'язок між параметрами регресії та кореляцією, коваріацією, дисперсією, стандартним відхиленням та засобами: b= ˉ y -m ˉ x
Таким чином, ви можете перетворити обох один на одного за допомогою масштабування та змінення їх параметрів.
Приклад в R:
y <- c(4.17, 5.58, 5.18, 6.11, 4.50, 4.61, 5.17, 4.53, 5.33, 5.14)
x <- c(4.81, 4.17, 4.41, 3.59, 5.87, 3.83, 6.03, 4.89, 4.32, 4.69)
lm(y ~ x)
##
## Call:
## lm(formula = y ~ x)
##
## Coefficients:
## (Intercept) x
## 6.5992 -0.3362
(m <- cov(y, x) / var(x)) # slope of regression
## [1] -0.3362361
cor(y, x) * sd(y) / sd(x) # the same with correlation
## [1] -0.3362361
mean(y) - m*mean(x) # intercept
## [1] 6.599196
Цитуючи Алтмана Д.Г., "Практична статистика медичних досліджень" Чапман і Холл, 1991 р., Сторінка 321: "Кореляція зводить набір даних до єдиного числа, що не має прямого відношення до фактичних даних. Регресія - набагато корисніший метод, результати, які чітко пов'язані з отриманим вимірюванням. Сила співвідношення явна, і невизначеність чітко видно з довірчих інтервалів або інтервалів прогнозування "
Регресійний аналіз - це методика вивчення причини впливу співвідношення двох змінних. тоді як кореляційний аналіз - це методика кількісного визначення співвідношення двох змінних.
Кореляція - це показник (всього одне число) сили відносин. Регресія - це аналіз (оцінка параметрів моделі та статистичний тест їх значущості) адекватності певного функціонального зв'язку. Розмір кореляції пов'язаний з тим, наскільки точними будуть прогнози регресії.
Кореляція - це термін у статистиці, який визначає, чи існує співвідношення між двома, а потім ступенем взаємозв'язку. Її діапазон становить від -1 до +1. Хоча регресія означає повернутися до середнього. З регресії ми прогнозуємо значення, зберігаючи одну змінну залежною, а іншу незалежну, але слід уточнити значення, яку змінну ми хочемо передбачити.