Проста модель лінійної регресії
уi= α + βхi+ ε
можна записати з точки зору ймовірнісної моделі, що стоїть за нею
мкi= α + βхiуi∼ N( мкi, σ)
тобто залежна змінна слідує за нормальним розподілом, параметризованим середнім , тобто лінійною функцією параметризованою , і стандартним відхиленням . Якщо ви оцінюєте таку модель, використовуючи звичайні найменші квадрати , вам не доведеться турбуватися про ймовірнісну формулювання, оскільки ви шукаєте оптимальні значення параметрів , зводячи до мінімуму похибки квадрата вбудованих значень до прогнозованих значень. З іншого боку, ви можете оцінити таку модель, використовуючи максимальну оцінку ймовірності , де ви б шукали оптимальні значення параметрів, максимізуючи функцію ймовірності.µ i X α , β σ α , βYмкiХα , βσα , β
a r gм а хα ,β,σ∏i = 1нN( уi; α + βхi, σ)
де - функція щільності нормального розподілу, що оцінюється в точках , параметризована засобами та стандартним відхиленням .y i α + β x i σNуiα + βхiσ
У баєсовському підході замість максимізації функції лише ймовірності ми вважаємо попередні розподіли для параметрів і використовуємо теорему Байєса
задній ∝ ймовірність × до
Функція ймовірності така ж, як вище, але те, що змінюється, полягає в тому, що ви припускаєте деякі попередні розподіли для оцінюваних параметрів та включаєте їх до рівнянняα , β, σ
f( α , β, σ∣ Y, X)задній∝ ∏i = 1нN( уi∣ α + βхi, σ)ймовірністьfα( α )fβ( β)fσ( σ)пріори
"Які розподіли?" інше питання, оскільки існує необмежена кількість варіантів. Для параметрів можна, наприклад, припустити звичайні розподіли, параметризовані деякими гіперпараметрами , або -розподіл, якщо ви хочете зробити більш важкі хвости, або рівномірний розподіл, якщо ви не хочете робити багато припущень, але ви хочете припустити що параметри можуть бути апріорі "будь-що в заданому діапазоні" і т. д. Для вам потрібно припустити деякий попередній розподіл, який повинен бути більшим за нуль, оскільки стандартне відхилення повинно бути додатним. Це може призвести до формулювання моделі, як показано нижче Джон К. Крушке.t σα , βтσ
(джерело: http://www.indiana.edu/~kruschke/BMLR/ )
Хоча з максимальною ймовірністю ви шукали єдине оптимальне значення для кожного з параметрів, в баєсовському підході, застосовуючи теорему Байєса, ви отримуєте задній розподіл параметрів. Остаточна оцінка залежатиме від інформації, яка надходить від ваших даних та від ваших пріорів , але чим більше інформації міститься у ваших даних, тим менш впливовими є пріори .
Зауважте, що при використанні рівномірних пріорів вони набувають форми після скидання нормалізуючих констант. Це робить теорему Байєса пропорційною лише ймовірності функціонування, тому задній розподіл досягне свого максимуму точно в тій же точці, що і максимальна оцінка ймовірності. Далі, оцінка за однорідними пріорами буде такою ж, як і за допомогою звичайних найменших квадратів, оскільки мінімізація помилок у квадраті відповідає максимізації нормальної ймовірності .f( θ ) ∝ 1
Для оцінки моделі в баєсовському підході в деяких випадках можна використовувати кон'юговані пріори , тому задній розподіл безпосередньо доступний (див. Приклад тут ). Однак у переважній більшості випадків задній розподіл не буде доступний безпосередньо, і вам доведеться використовувати методи Маркова ланцюга Монте-Карло для оцінки моделі (перевірте цей приклад використання алгоритму Metropolis-Hastings для оцінки параметрів лінійної регресії). Нарешті, якщо вас цікавлять лише точкові оцінки параметрів, ви можете використовувати максимум післяофіційну оцінку , тобто
a rgм а хα ,β,σf( α ,β,σ∣Y,X)
Для більш детального опису логістичної регресії ви можете перевірити байєсівську модель Logit - інтуїтивне пояснення? нитка.
Щоб дізнатися більше, ви можете перевірити наступні книги:
Kruschke, J. (2014). Проведення аналізу даних Bayes: Навчальний посібник з R, JAGS та Stan. Академічна преса.
Гельман, А., Карлін, Дж. Б., Стерн, Х. С., і Рубін, Д. Б. (2004).
Байєсівський аналіз даних. Chapman & Hall / CRC.