Логістична регресія для багатокласових


10

Я отримав модель логістичної регресії для багатокласових, яку задає

P(Y=j|X(i))=exp(θjTX(i))1+m=1kexp(θmTX(i))

де k - кількість класів тета - параметр, який слід оцінювати j - j-й клас Xi - дані навчання

Ну одне, чого я не отримав - це те, як частина знаменника нормалізувала модель. Я маю на увазі, що це робить ймовірність залишитися між 0 і 1.

1+m=1kexp(θmTX(i))

Я маю на увазі, що я звик до логістичної регресії

P(Y=1|X(i))=1/(1+exp(θTX(i)))

Власне, я плутаю річ із номалізацією. У цьому випадку, оскільки це сигмоїдна функція, вона ніколи не дозволяє значенню бути меншим за 0 або більше 1. Але я плутаюсь у випадку мультикласу. Чому так?

Це моя довідка https://list.scms.waikato.ac.nz/pipermail/wekalist/2005-February/029738.html . Я думаю, це мало бути нормалізацією

P(Y=j|X(i))=exp(θjTX(i))m=1kexp(θmTX(i))

2
Підказка: У логістичній регресії неявно є дві ймовірності для вирішення: ймовірність і ймовірність . Ці ймовірності повинні дорівнювати . Y=1Y=01
whuber

1
На основі деяких інших ваших публікацій ви знаєте, як розмітити рівняння. Текстові рівняння тут важко читати, а (підписки?) Заплутані - чи можете ви позначити їх за допомогою ? LATEX
Макрос

2
Оскільки ви розміщуєте тут стільки питань, будь ласка, призупиніть та прочитайте наші поширені запитання про те, як ставити хороші запитання. Прочитайте довідку щодо розмітки щоб ви могли зробити свої рівняння читабельними. TEX
whuber

Я відредагував рівняння. @ Whuber Власне, я плутаний, пов'язаний з багатокласовою логістичною регресією, а не бінарною. Мене хвилює, як прийти, коли я додаю всі елементи дономінатора, нормалізував вірогідність
user34790

@ user34790, коли ви розділите кожен доданок на суму, то ймовірності окремих класів становлять 1. Що таке до речі? X(i)
Макрос

Відповіді:


13

Ваша формула неправильна (верхня межа суми). При логістичній регресії з класами ( ) ви в основному створюєте бінарні логістичні регресійні моделі, де ви вибираєте один клас як опорний або стрижневий. Зазвичай для опорного вибирається останній класТаким чином, ймовірність опорного класу може бути обчисленаЗагальна форма ймовірності -Оскільки -клас - це ваша посилання і, отже,KK>2K1K

P(yi=K|xi)=1k=1K1P(yi=k|xi).
P(yi=k|xi)=exp(θiTxi)i=1Kexp(θiTxi).
KθK=(0,,0)T
i=1Kexp(θiTxi)=exp(0)+i=1K1exp(θiTxi)=1+i=1K1exp(θiTxi).
Зрештою, ви отримуєте наступну формулу для всіх : k<K
P(yi=k|xi)=exp(θiTxi)1+i=1K1exp(θiTxi)

4
зауважте, що вибір еталонного класу не важливий, якщо ви робите максимальну ймовірність. Але якщо ви робите пенімальовану максимальну ймовірність або байєсівський висновок, часто може бути корисніше залишити ймовірності завищеними параметрами, і нехай покарання обрало спосіб обробки надмірної параметризації. Це тому, що більшість штрафних функцій / пріорів не є інваріантними щодо вибору еталонного класу
ймовірністьлогічного

@sebp, здається, трохи заплутаний; було б краще використовувати для спостереження, а якусь іншу букву для ітерації категорії . iik
гарей

4

Я думаю, що вас плутає помилка друку: у першому рівнянні ваш повинен бути . 1, який ви бачите в логістичному випадку, насправді є s, наприклад, коли є th . k - 1 exp ( 0 ) k θ = 0kk1exp(0)kθ=0

Припустимо, що . Тепер зауважте, що ви можете перейти від останньої рецептури до версії логістичної регресії на зразок Для декількох класів просто замініть знаменник у перших двох кількостях на суму над експоненційними лінійними предикторами. exp ( b )θ1X=b

exp(b)exp(0)+exp(b)=exp(0)exp(0)+exp(b)=11+exp(b)
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.