Логістичну регресію можна описати як лінійну комбінацію
η= β0+ β1Х1+ . . . + βкХк
що передається через функцію зв'язку :г
г( Є( Y) ) = η
де функцією зв'язку є функція logit
Е( Y| Х, β) = p = logit- 1( η)
де приймають лише значення у а зворотна функція logit перетворює лінійну комбінацію в цей діапазон. На цьому закінчується класична логістична регресія.{ 0 , 1 } ηY{ 0 , 1 }η
Однак якщо ви пам'ятаєте, що для змінних, які приймають лише значення в , ніж можна вважати . У цьому випадку висновок функції logit можна розглядати як умовну ймовірність "успіху", тобто . Розподіл Бернуллі - це розподіл, який описує ймовірність спостереження бінарного результату, з деяким параметром , тому ми можемо описати як{ 0 , 1 } E ( Y | X , β ) P ( Y = 1 | X , β ) P ( Y = 1 | X , β ) p YЕ( Y) = Р( Y= 1 ){ 0 , 1 }Е( Y| Х, β)П( Y= 1 | Х, β)П( Y= 1 | Х, β)pY
уi∼ Бернуллі ( p )
Тож за допомогою логістичної регресії ми шукаємо деякі параметри які тогедер з незалежними змінними утворюють лінійну комбінацію . У класичній регресії (вважаємо, що функція зв'язку є функцією тотожності), проте для моделі яка приймає значення в нам потрібно перетворити так, щоб відповідати в діапазоні [ 0 , 1 ] .X η E ( Y | X , β ) = η Y { 0 , 1 }βХηЕ( Y| Х, β) = ηY{ 0 , 1 }η[ 0 , 1 ]
Тепер для оцінки логістичної регресії байєсівським способом ви підбираєте деякі пріори для параметрів як у випадку лінійної регресії (див. Kruschke et al, 2012 ), а потім використовуєте функцію logit для перетворення лінійної комбінації η , щоб використовувати її вихід як p параметр розподілу Бернуллі, який описує ваш YβiηpY зміннуОтже, так, ви фактично використовуєте рівняння та функцію зв'язку logit так само, як і у випадку частоценціоніста, а решта працює (наприклад, вибираючи пріори), як при оцінці лінійної регресії байєсівським способом.
Простий підхід для вибору пріорів полягає у виборі нормальних розподілів (але ви також можете використовувати інші розподіли, наприклад, - або розподіл Лапласа для більш надійної моделі) для β i s з параметрами μ i та σ 2 i , які задані або взяті з ієрархічні пріори . Тепер, маючи визначення моделі, ви можете використовувати програмне забезпечення, таке як JAGS, щоб виконати моделювання Markov Chain Monte Carlo, щоб оцінити модель. Нижче я публікую JAGS-код для простої логістичної моделі (див. Тут, щоб отримати більше прикладів).тβiмкiσ2i
model {
# setting up priors
a ~ dnorm(0, .0001)
b ~ dnorm(0, .0001)
for (i in 1:N) {
# passing the linear combination through logit function
logit(p[i]) <- a + b * x[i]
# likelihood function
y[i] ~ dbern(p[i])
}
}
Як бачимо, код безпосередньо перекладається на визначення моделі. Програмне забезпечення - це те, що воно черпає деякі значення з Normal priors для, a
а b
потім використовує ці значення для оцінки, p
і, нарешті, використовує функцію ймовірності, щоб оцінити, наскільки вірогідні ваші дані з урахуванням цих параметрів (це коли ви використовуєте теорему Байєса, дивіться тут для більш детальний опис).
Основна модель логістичної регресії може бути розширена для моделювання залежності між предикторами за допомогою ієрархічної моделі (включаючи гіперпріори ). У цьому випадку ви можете отримати 's з багатоваріантного нормального розподілу, який дозволяє нам включати інформацію про коваріаціюβiΣ між незалежними змінними
⎛⎝⎜⎜⎜⎜β0β1⋮βк⎞⎠⎟⎟⎟⎟∼ M V N ⎛⎝⎜⎜⎜⎜⎜⎡⎣⎢⎢⎢⎢мк0мк1⋮мкк⎤⎦⎥⎥⎥⎥, ⎡⎣⎢⎢⎢⎢⎢σ20σ1 , 0⋮σk , 0σ0 , 1σ21⋮σk , 1……⋱…σ0 , кσ1 , к⋮σ2к⎤⎦⎥⎥⎥⎥⎥⎞⎠⎟⎟⎟⎟⎟
... але це розбирається в деталях, тому зупинимось тут.
"Байєсівська" частина тут вибирає пріори, використовуючи теорему Байєса і визначаючи модель в імовірнісних умовах. Дивіться тут для визначення "байєсівської моделі", а тут - загальну інтуїцію щодо байєсівського підходу . Що ви також можете помітити, це те, що визначення моделей є досить простим та гнучким при такому підході.
Kruschke, JK, Aguinis, H., & Joo, H. (2012). Прийшов час: Байєсові методи аналізу даних в організаційних науках. Методи організаційних досліджень, 15 (4), 722-752.
Гельман, А., Якулін, А., Піттау, Г. М. та Су, Ю.-С. (2008). Попередньо розповсюджений за умовчанням попередній розподіл для логістичних та інших регресійних моделей. Аннали прикладної статистики, 2 (4), 1360–1383.