Сюжет та інтерпретація порядкової логістичної регресії


19

У мене є порядкова змінна залежність, легкість, яка коливається від 1 (не просто) до 5 (дуже просто). Збільшення значень незалежних факторів пов'язане з підвищенням рейтингової легкості.

Дві мої незалежні змінні ( condAі condB) є категоричними, кожна з яких має 2 рівні, а 2 ( abilityA, abilityB) - безперервні.

Я використовую порядковий пакет в R, де він використовує те, що я вважаю

logit(p(Yg))=lnp(Yg)p(Y>g)=β0g(β1X1++βpXp)(g=1,,k1)

(з відповіді @ каракала тут )

Я вчився цьому самостійно і буду вдячний за будь-яку можливу допомогу, оскільки я все ще борюся з цим. На додаток до навчальних посібників, що додаються до порядкового пакету, я також виявив корисне для цього:

Але я намагаюся інтерпретувати результати, і збирати різні ресурси разом, і я застрягаю.

  1. Я прочитав багато різних пояснень, як абстрактних, так і прикладних, але все ще важко обертаю свою думку про те, що означає сказати:

    При збільшенні конденсації на 1 одиницю (тобто, зміні категорійного прогноктора з одного рівня на інший) прогнозовані шанси спостереження Y = 5 проти Y = 1 до 4 (а також прогнозовані шанси спостережуваних Y = 4 проти Y = 1 - 3) зміни на коефіцієнт exp (бета), який для діаграми є exp (0,457) = 1,58.

    а. Чи відрізняється це категоричне від суцільних незалежних змінних?
    б. Частина моїх труднощів може бути з ідеєю накопичувальних шансів і цих порівнянь. ... Чи справедливо сказати, що перехід від condA = відсутній (еталонний рівень) до condA = присутній в 1,58 рази більше шансів оцінюватися на більш високому рівні легкості? Я майже впевнений, що це НЕ правильно, але я не впевнений, як правильно це викласти.

Графічно,
1. Реалізуючи код у цій публікації , я збентежений, чому отримані значення "ймовірності" настільки великі.
2. Графік p (Y = g) у цій публікації має для мене найбільш сенс ... з тлумаченням ймовірності спостереження певної категорії Y за певним значенням X. Причину, яку я намагаюся отримати графік, в першу чергу, полягає в тому, щоб краще зрозуміти результати в цілому.

Ось результат моєї моделі:

m1c2 <- clmm (easiness ~ condA + condB + abilityA + abilityB + (1|content) + (1|ID), 
              data = d, na.action = na.omit)
summary(m1c2)
Cumulative Link Mixed Model fitted with the Laplace approximation

formula: 
easiness ~ illus2 + dx2 + abilEM_obli + valueEM_obli + (1 | content) +  (1 | ID)
data:    d

link  threshold nobs logLik  AIC    niter     max.grad
logit flexible  366  -468.44 956.88 729(3615) 4.36e-04
cond.H 
4.5e+01

Random effects:
 Groups  Name        Variance Std.Dev.
 ID      (Intercept) 2.90     1.70    
 content  (Intercept) 0.24     0.49    
Number of groups:  ID 92,  content 4 

Coefficients:
                Estimate Std. Error z value Pr(>|z|)    
condA              0.681      0.213    3.20   0.0014 ** 
condB              0.457      0.211    2.17   0.0303 *  
abilityA           1.148      0.255    4.51  6.5e-06 ***
abilityB           0.577      0.247    2.34   0.0195 *  

Threshold coefficients:
    Estimate Std. Error z value
1|2   -3.500      0.438   -7.99
2|3   -1.545      0.378   -4.08
3|4    0.193      0.366    0.53
4|5    2.121      0.385    5.50

4
+1, приємно бачити таке добре вивчене та сформульоване питання. Ласкаво просимо в CV.
gung - Відновіть Моніку

Відповіді:


2

Примітки курсу « Мої стратегії регресійного моделювання» мають дві глави про порядкову регресію, що може допомогти. Дивіться також цей підручник.

У курсових записках детально описується, що означають припущення щодо моделі, як вони перевіряються та як інтерпретувати пристосовану модель.


Готово - дякую за попередження
Френк Харрелл
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.