Я намагаюся запустити байєсівський логіт на даних тут . Я використовую bayesglm()
в arm
пакеті в Р. Кодування досить просто:
df = read.csv("http://dl.dropbox.com/u/1791181/bayesglm.csv", header=T)
library(arm)
model = bayesglm(PASS ~ SEX + HIGH, family=binomial(link="logit"), data=df)
summary(model)
дає такий вихід:
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 0.10381 0.10240 1.014 0.311
SEXMale 0.02408 0.09363 0.257 0.797
HIGH -0.27503 0.03562 -7.721 1.15e-14 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 2658.2 on 1999 degrees of freedom
Residual deviance: 2594.3 on 2000 degrees of freedom
AIC: 2600.3
glm()
bayesglm()
Це коментар, а не відповідь, але саме це мало б для мене сенс. Ви отримуєте оцінки, які, ймовірно, значення, для яких задній розподіл максимізовано. Можливо також, що вони є лише засобами заднього? Варто перевірити, чи зможете ви. Але незалежно від того, які саме деталі є, як тільки у вас є деякі оцінки, ви можете перевірити їх за допомогою звичайного кошторису / Std. Помилка -> z-score процедура, яка працює, якщо задній досить близький до нормального (він переходить до норми за деяких умов, які зазвичай дотримуються).
—
Ерік
Ерік ... Ти прав: коефіцієнти справді є засобами задньої густини. Моє запитання щодо p- і z-значень. Що вони тут представляють?
—
user3671
Добре. Якщо у вас щільність приблизно нормально розподілена, ви можете перевірити, чи є середнє значення нульовим, взявши z-бал = середнє / стандартне відхилення розподілу та порівнявши його зі звичайним нормальним розподілом. Тоді ви дивитесь, наскільки малоймовірно, що ваше значення чи більша величина опиняться під нормальним нормальним розподілом -> p-значенням. Докладніше див. Z-score у Вікіпедії.
—
Ерік
Ну так. Але навіщо турбуватися робити це в байєсівській обстановці? За байєсівським висновком, оцінка балів - це моя найкраща здогадка про випадковий параметр, тому не потрібно тестувати його. Щонайбільше, я можу включити "достовірний інтервал", який еквівалентний частолістському "інтервалу довіри", але статистична інтерпретація якої значно відрізняється. Це заплутана частина щодо результату підсумків (). Дух - байєсівський, але вихід частолістський?
—
user3671
Один момент полягає в тому, що отримана вами оцінка буде різною, оскільки ви використовували попередню. І хоча бальна оцінка - це "найкраща здогадка", якщо ви хочете показати байєсівським способом, що щось має ефект, ви спробуєте показати, що достовірний інтервал не містить нуля. Коли ви наближаєте заднє до нормального з тим же середнім і sd (асимптотично правильним), то інтервал достовірності (1-p / 2) є найбільшим симетричним інтервалом достовірності, що містить нуль, тому ваша відповідь в основному однакова. Р-значення, вказане вище.
—
Ерік