Латентна змінна інтерпретація узагальнених лінійних моделей (ГЛМ)


21

Коротка версія:

Ми знаємо, що логістичну регресію та пробіт-регресію можна інтерпретувати як такі, що включають суцільну приховану змінну, яка стає дискретизованою відповідно до деякого фіксованого порогу перед спостереженням. Чи існує аналогічна латентна мінлива інтерпретація, скажімо, для пуассонової регресії? Як щодо біноміальної регресії (наприклад, logit або probit), коли є більше двох дискретних результатів? На найбільш загальному рівні, чи існує спосіб інтерпретації будь-якого GLM в термінах прихованих змінних?


Довга версія:

Стандартний спосіб мотивації пробіт-моделі для бінарних результатів (наприклад, з Вікіпедії ) полягає в наступному. Ми маємо неспостережний / латентний змінний результат , що зазвичай поширюються, умовний на провісник . Ця латентна змінна піддається пороговому процесу, так що дискретний результат, який ми насправді спостерігаємо, - якщо , якщо . Це призводить до ймовірності заданого приймати форму нормального CDF, із середнім та стандартним відхиленням функцією порога та нахилу регресії наX u = 1 Y γ u = 0 Y < γ u = 1 X γ Y X Y XYXu=1Yγu=0Y<γu=1XγYX відповідно. Таким чином, модель пробита мотивована як спосіб оцінки нахилу від цієї прихованої регресії на .YX

Це проілюстровано на сюжеті нижче від Thissen & Orlando (2001). Ці автори технічно обговорюють нормальну модель ogive з теорії відгуку елементів, яка для наших цілей схожа на регресію пробіту (зауважте, що ці автори використовують замість , а ймовірність записується з замість звичайного ).X T PθXTP

Пробітна модель

Ми можемо інтерпретувати логістичну регресію майже точно так само . Єдина відмінність полягає в тому , що тепер непомітному безперервних слід логістичне розподіл, а не нормальні розподіл, дано . Теоретичний аргумент, чому може слідувати за логістичним розподілом, а не за звичайним розподілом, є трохи менш зрозумілим ... але оскільки отримана логістична крива виглядає по суті так само, як і звичайна CDF у практичних цілях (після перерахунку), можливо, вона виграла ' На практиці, як правило, багато значення має, яку модель ви використовуєте. Справа в тому, що обидві моделі мають досить прямолінійну приховану змінну інтерпретацію.X YYXY

Я хочу знати, чи можна застосувати схожі (або, пекло, схожі), приховані змінні інтерпретації до інших GLM - або навіть до будь-яких GLM.

Навіть розширення вищезгаданих моделей для врахування біноміальних результатів з (тобто, не лише результатів Бернуллі) мені не зовсім зрозуміло. Імовірно, можна зробити це, уявивши, що замість того, щоб мати єдиний поріг , у нас є кілька порогів (на один менше кількості спостережуваних дискретних результатів). Але нам потрібно було б накласти певні обмеження на пороги, як, наприклад, вони розташовані рівномірно. Я впевнений, що щось подібне може спрацювати, хоча деталей я не опрацював.γn>1γ

Перехід до випадку пуассонової регресії мені здається ще менш зрозумілим. Я не впевнений, чи поняття порогів стане найкращим способом думати про модель в даному випадку. Я також не впевнений, який розподіл ми могли б уявити під прихованим результатом.

Найбільш бажаним рішенням цього буде загальний спосіб інтерпретації будь-якого GLM в термінах прихованих змінних з деякими розподілами чи іншими - навіть якщо це загальне рішення передбачало б іншу інтерпретацію прихованої змінної, ніж звичайна для регресії logit / probit. Звичайно, було б ще крутіше, якби загальний метод погодився із звичайними інтерпретаціями logit / probit, але також природно поширився на інші GLM.

Але навіть якщо такі загальнозмінні інтерпретації змінних зазвичай не доступні в загальному випадку GLM, я також хотів би почути про приховані інтерпретації змінних спеціальних випадків, таких як випадки Біном та Пуассона, про які я згадував вище.


Список літератури

Thissen, D. & Orlando, M. (2001). Теорія відгуку предметів для предметів, набраних у двох категоріях. У D. Thissen & Wainer, H. (ред.), Тестовий бал (с. 73-140). Mahwah, NJ: Lawrence Erlbaum Associates, Inc.


Редагувати 2016-09-23

Існує один вид тривіального сенсу, в якому будь-який GLM є латентною змінною моделлю. Це те, що ми можемо, завжди, бачити параметр розподілу результатів, який оцінюється як "латентна змінна" - тобто ми не спостерігаємо безпосередньо , скажімо, параметр швидкості Пуассона, ми просто виводимо його з даних. Я вважаю це досить тривіальною інтерпретацією, і це не дуже те, що я шукаю, тому що згідно з такою інтерпретацією будь-яка лінійна модель (і звичайно багато інших моделей!) Є "латентною змінною моделлю". Наприклад, при нормальній регресії ми оцінюємо "приховану" нормальної заданоїY X Y γμYX. Таким чином, це, здається, пов'язує приховане моделювання змінної з просто оцінкою параметрів. Що я шукаю, наприклад, у випадку регресії Пуассона, більше виглядатиме як теоретична модель, чому спостережуваний результат повинен у першу чергу мати розподіл Пуассона, враховуючи деякі припущення (які ви повинні заповнити вами!) Про розподіл прихованого , процес відбору, якщо такий є і т. д. Тоді (можливо, вирішальне значення?) ми повинні мати можливість інтерпретувати оцінені коефіцієнти GLM з точки зору параметрів цих прихованих розподілів / процесів, аналогічно тому, як ми можемо інтерпретувати коефіцієнти від пробітної регресії через середні зрушення латентної нормальної змінної та / або зрушення порога .Yγ


Чи можемо ми перефразувати ваше запитання як "для яких сімейств GLM лінійний предиктор відповідає параметру розташування для деякого безперервного розподілу та моделі вибору?" Для пробітної та логістичної регресії лінійним предиктором є параметр розташування відповідно Гаусса та Логістичного розподілу. Модель вибору має поріг у 0 (FWIW, я не думаю, що буде багато інших - а насправді Probit / Logistic - це одне сімейство, але з різними функціями зв'язку ...)
Ендрю М,

@AndrewM Я думаю, що перефразування, ймовірно, може працювати для GLM з дискретними результатами. Але я вагаюся звести все питання до цього, оскільки я не можу реально зрозуміти, як така модель розташування + вибір може працювати для GLM з постійними результатами. Так що перефразування, здавалося б, майже не дає можливості відповісти на ці ГЛМ
Джейк

Моделі прихованого класу відносяться до категорії моделей кінцевих сумішей. Одним із простих способів думати про них є те, що вони керуються моделями навчання, які на задньому кінці ділять гетерогенність у залишковому від моделі на групи. Аналогічна логіка та розподіл може бути застосована до неоднорідності, властивої залишкам будь-якої моделі, включаючи GLM. Звичайно, підхід до цього розбиття може бути нетривіальним вибором, і це може бути рішенням клубу, але це може бути змушене працювати.
Майк Хантер

Якщо glm викликає розподіл ми не можемо вибрати дуже багато прихованих розподілів таких, що ? g ( θ i | η i ) f ( y i | η i ) = f ( y i |f(yi|ηi)g(θi|ηi)f(yi|ηi)=f(yi|ηi,θi)g(θi|ηi)dθi
Ендрю М

1
Упорядкований пробіт може мати аналогічне тлумачення. Див Becker & Kennedy папір в ЕТ.
Мастеров Дмитро Васильович

Відповіді:


1

Для моделей з більш ніж одним дискретним результатом існує кілька версій моделей logit (наприклад, умовний logit, багаточленний logit, змішаний logit, вкладений logit, ...). Дивіться книгу Кеннета Поїзда на цю тему: http://eml.berkeley.edu/books/choice2.html

Наприклад, в умовному режимі результат, , - це машина, яку обирає людина, і може бути, скажімо, автомобіль на вибір, а автомобіль має атрибути, задані . Тоді припустимо, що індивід отримує утиліту від вибору автомобіля , де розподіляється кращого значення типу I. Тоді ймовірність вибору автомобіля задається черезJ j x j i u i j = x j β + ε i j j ε i j jyJjxjiuij=xjβ+εijjεijj

Pr(y=j)=exp(xjβ)k=1Jexp(xkβ)

У цій моделі формують рейтинг альтернатив. Ми шукаємо параметри , щоб цей рейтинг відповідав спостереженим виборам, які ми бачимо, як люди роблять. Наприклад, якщо більш дорогі автомобілі мають нижчу частку ринку, а всі інші дорівнюють, то коефіцієнт ціни повинен бути негативним. βuijβ

Економісти трактують як приховану "корисність" для кожного вибору. У галузі мікроекономіки існує значна частина роботи з теорією корисності: див., Наприклад, https://en.wikipedia.org/wiki/Utility .u

Зауважте, що тут немає жодного параметра "поріг": натомість, коли одна утиліта стає більшою за попередню найбільшу, тоді споживач перейде до вибору цієї альтернативи.

Тому не може бути перехоплення в : якби вони були, це просто збільшить корисність усіх доступних опцій, залишивши рейтинг збереженим, а вибір не зміниться.xjβ

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.