Запитання з тегом «bayesian»

Байєсівський висновок - це метод статистичного висновку, який спирається на трактування параметрів моделі як випадкових змінних і застосування теореми Байєса для виведення суб'єктивних тверджень про ймовірність щодо параметрів або гіпотез, що залежать від спостережуваного набору даних.

1
Чи існує сполучник до розподілу Лапласа?
Чи існує сполучник до розподілу Лапласа ? Якщо ні, то чи відомий вираз закритої форми, який наближає до заднього для параметрів розподілу Лапласа? Я гуляв досить багато, не маючи успіху, тому моє теперішнє здогадка "ні" на вищезазначені питання ...

1
Гамільтонівський Монте-Карло та дискретні проміжки параметрів
Я тільки почав будувати моделі в квартирі ; щоб побудувати знайомство з інструментом, я працюю над деякими вправами в баєсовському аналізі даних (2-е видання). У Waterbuck вправу передбачає , що дані , з невідомо. Оскільки Гамільтоніан Монте-Карло не дозволяє дискретні параметри, я оголосив N як справжній \ у [72, \ …

2
Ефективний розмір зразка для заднього висновку з відбору проб MCMC
Отримуючи зразки MCMC, щоб зробити висновок за певним параметром, які хороші орієнтири щодо мінімальної кількості ефективних вибірок, на які слід прагнути? І чи змінюється ця порада, коли модель стає більш-менш складною?

1
Допоможіть мені зрозуміти
Я намагаюся запустити байєсівський логіт на даних тут . Я використовую bayesglm()в armпакеті в Р. Кодування досить просто: df = read.csv("http://dl.dropbox.com/u/1791181/bayesglm.csv", header=T) library(arm) model = bayesglm(PASS ~ SEX + HIGH, family=binomial(link="logit"), data=df) summary(model) дає такий вихід: Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 0.10381 0.10240 1.014 0.311 SEXMale 0.02408 …
13 r  bayesian  p-value 

2
Чому проблему захаращення не можна вирішити для великих розмірів вибірки?
Припустимо, у нас є набір точок . Кожна точка формується за допомогою розподілу Для отримання posterior для пишемо Згідно зі статтею Мінка на Очікування поширення нам необхідно 2 ^ N обчислення , щоб отримати задній р (х | \ mathbf {у}) і, таким чином, проблема стає нерозв'язною для великих розмірів …

4
Чи є підручники з теорії ймовірностей Баєса чи графічних моделей на прикладі?
Я бачив посилання на вивчення баєсівської теорії ймовірностей в R, і мені було цікаво, чи є щось подібне, можливо, конкретно в Python? Орієнтований на вивчення байєсівської теорії ймовірностей, умовиводу, максимальної оцінки ймовірності, графічних моделей і подібного роду?

5
R лише альтернативи BUGS [закрито]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закритий минулого року . Я стежу за курсом байєсівської статистики за допомогою BUGS та R. Тепер я вже знаю BUGS, це чудово, але я не дуже люблю …
13 r  bayesian  bugs 

1
Чи пропонують співвідношення правдоподібності та порівняння моделі Байєса вищі та достатні альтернативи тестуванню гіпотез на нуль?
У відповідь на зростаючу групу статистиків та дослідників, які критикують корисність тестування гіпотез (NHT) для науки як сукупного зусилля, Американська спеціальна група психологічних асоціацій зі статистичних висновків уникала прямої заборони НТГ, але натомість запропонувала дослідникам повідомляти розміри ефекту на додаток до p-значень, отриманих від NHT. Однак розміри ефектів не просто …

1
Чи можу я напівавтоматизувати діагностику конвергенції MCMC, щоб встановити довжину згоряння?
Я б хотів автоматизувати вибір спалювання для ланцюга MCMC, наприклад, видаливши перші n рядів на основі діагностики конвергенції. Наскільки цей крок може бути безпечно автоматизований? Навіть якщо я все ще перевіряю автокореляцію, mcmc слід та pdfs, було б непогано мати вибір довжини спалювання автоматизованим. Моє запитання загальне, але було б …
13 r  bayesian  mcmc 

3
Розуміння MCMC: якою була б альтернатива?
Вивчення байєсівської статистики вперше; як кут до розуміння MCMC я задумався: чи це робиться щось, що принципово не можна зробити іншим способом, чи це просто робити щось набагато ефективніше, ніж альтернативи? Для ілюстрації, припустимо, що ми намагаємося обчислити ймовірність наших параметрів за даними даною моделлю, яка обчислює навпаки, . Щоб …
13 bayesian  mcmc 

1
Чому класифікатор наївних баєсів оптимальний для втрати 0-1?
Класифікатор Naive Bayes - це класифікатор, який присвоює елементи хxx класу СCC на основі максимізації заднього П( С| х)P(C|x)P(C|x) для приналежності до класу, і передбачає, що функції елементів не залежать. Втрата 0-1 - це втрата, яка присвоює будь-якій помилковій класифікації втрату "1", а втрату "0" - будь-якій правильній класифікації. Я …

1
Як знайти 95% надійний інтервал?
Я намагаюся обчислити 95% достовірний інтервал наступного заднього розподілу. Я не зміг знайти для нього функцію в R, але правильний підхід нижче? x <- seq(0.4,12,0.4) px <- c(0,0, 0, 0, 0, 0, 0.0002, 0.0037, 0.018, 0.06, 0.22 ,0.43, 0.64,0.7579, 0.7870, 0.72, 0.555, 0.37, 0.24, 0.11, 0.07, 0.02, 0.009, 0.005, 0.0001, …

2
Коваріаційні функції або ядра - що це саме?
Я досить новачок у галузі гауссових процесів і як вони застосовуються в машинному навчанні. Я продовжую читати та чути про те, що функції коваріації є головною привабливістю цих методів. То чи міг би хто-небудь пояснити інтуїтивно, що відбувається в цих коваріаційних функціях? В іншому випадку, якщо ви можете вказати на …

1
Гранична ймовірність виходу Гіббса
Я відтворюю з нуля результати в розділі 4.2.1 від Гранична ймовірність виходу Гіббса Сіддхартха Чиб Журнал Американської статистичної асоціації, Vol. 90, № 432. (груд., 1995), стор 1313-1321. Це суміш нормальної моделі з відомим числом k≥1k≥1k\geq 1 компонентів. f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σ2j).(∗)f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σj2).(∗) f(x\mid w,\mu,\sigma^2) =\prod_{i=1}^n\sum_{j=1}^k \mathrm{N}(x_i\mid\mu_j,\sigma_j^2) \, . \qquad (*) z=(z1,…,zn)z=(z1,…,zn)z=(z_1,\dots,z_n)1,…,k1,…,k1,\dots,k f ( x …

2
Навіщо використовувати бета-розподіл за параметром Бернуллі для ієрархічної логістичної регресії?
Зараз я читаю чудову книгу Крушке "Проведення байєсівського аналізу даних". Однак глава про ієрархічну логістичну регресію (глава 20) дещо заплутаний. На рисунку 20.2 описана ієрархічна логістична регресія, де параметр Бернуллі визначений як лінійна функція на коефіцієнти, перетворені через сигмоподібну функцію. Це, мабуть, є ієрархічною логістичною регресією у більшості прикладів, які …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.