Коли я аналізую свої змінні у двох окремих (універсальних) моделях логістичної регресії, я отримую наступне:
Predictor 1: B= 1.049, SE=.352, Exp(B)=2.85, 95% CI=(1.43, 5.69), p=.003
Constant: B=-0.434, SE=.217, Exp(B)=0.65, p=.046
Predictor 2: B= 1.379, SE=.386, Exp(B)=3.97, 95% CI=(1.86, 8.47), p<.001
Constant: B=-0.447, SE=.205, Exp(B)=0.64, p=.029
але коли я ввожу їх до єдиної множинної логістичної регресійної моделі, я отримую:
Predictor 1: B= 0.556, SE=.406, Exp(B)=1.74, 95% CI=(0.79, 3.86), p=.171
Predictor 2: B= 1.094, SE=.436, Exp(B)=2.99, 95% CI=(1.27, 7.02), p=.012
Constant: B=-0.574, SE=.227, Exp(B)=0.56, p=.012
Обидва прогнози дихотомічні (категоричні). Я перевірив на наявність мультиколінеарності.
Я не впевнений, чи надав мені достатньо інформації, але не можу зрозуміти, чому предиктор 1 перейшов від значущого до несуттєвого та чому коефіцієнт шансів настільки відрізняється в моделі множинної регресії. Хтось може надати базове пояснення того, що відбувається?