Запитання з тегом «bayesian»

Байєсівський висновок - це метод статистичного висновку, який спирається на трактування параметрів моделі як випадкових змінних і застосування теореми Байєса для виведення суб'єктивних тверджень про ймовірність щодо параметрів або гіпотез, що залежать від спостережуваного набору даних.

3
Що має бути неінформативним попереднім для схилу при лінійній регресії?
Виконуючи байєсівську лінійну регресію, потрібно призначити пріоритет для схилу і перехрестити b . Оскільки b - параметр розташування, має сенс призначити рівномірний попередній; однак, мені здається, що a схожий на параметр масштабу, і видавати уніформу перед ним видається неприродно.ааaббbббbааa З іншого боку, не зовсім правильно видавати звичайний неінформативний попередній Джефрі …

1
При повторній параметризації функції ймовірності достатньо просто підключити перетворену змінну замість зміни формули змінних?
Припустимо, що я намагаюся повторно параметризувати функцію вірогідності, яка розподілена експоненціально. Якщо моя оригінальна функція вірогідності: р (у∣ θ ) = θ e- θ уp(y∣θ)=θe−θy p(y \mid \theta) = \theta e^{-\theta y} і я хотів би повторно параметризувати його за допомогою , оскільки не є випадковою змінною, а параметром, достатньо …

1
bayesglm (arm) проти MCMCpack
Як bayesglm()(в пакеті R-R), так і різні функції в пакеті MCMCpack спрямовані на те, щоб зробити байєсівську оцінку узагальнених лінійних моделей, але я не впевнений, що вони насправді обчислюють одне і те ж. Функції MCMCpack використовують ланцюг Маркова Монте-Карло для отримання (залежного) зразка із спільного заднього для параметрів моделі. bayesglm(), …

3
2-гауссова модель суміші з MCMC та PyMC
Проблема Я хочу відповідати модельним параметрам простої сукупності 2-гауссівської суміші. Враховуючи всю суєту навколо байєсівських методів, я хочу зрозуміти, чи є для цієї проблеми байєсівський висновок кращим інструментом для традиційних методів підгонки. Поки MCMC в цьому іграшковому прикладі дуже погано працює, але, можливо, я просто щось не помітив. Тож давайте …

3
Коли слід припинити байєсівський тест A / B?
Я намагаюся зробити A / B тестування байєсівського шляху, як у ймовірнісному програмуванні для тестів хакерів та байесівських A / B тестів . Обидві статті припускають, що яка приймає рішення, вирішує, який із варіантів краще ґрунтується виключно на ймовірності якогось критерію, наприклад, , отже, краще. Ця ймовірність не дає жодної …

2
Те саме чи інше? Байєсівський шлях
Скажіть, у мене є така модель: Poisson(λ)∼{λ1λ2if t<τif t≥τPoisson(λ)∼{λ1if t<τλ2if t≥τ\text{Poisson}(\lambda) \sim \begin{cases} \lambda_1 & \text{if } t \lt \tau \\ \lambda_2 & \text{if } t \geq \tau \end{cases} І я можу зробити для та показані нижче, зі своїх даних. Чи є байесовский спосіб сказати (або кількісної оцінки) , якщо …

2
Яка хороша аналогія для ілюстрації сильних сторін ієрархічних байесівських моделей?
Я відносно новачок байєсівської статистики і останнім часом використовую JAGS для побудови ієрархічних байєсівських моделей на різних наборах даних. Хоча я дуже задоволений результатами (порівняно зі стандартними GLM-моделями), мені потрібно пояснити нестатистам, у чому різниця від стандартних статистичних моделей. Особливо, я хотів би проілюструвати, чому і коли HBM працюють краще, …

4
Ідеальна змішана модель та баєсовський метод
У змішаній моделі ми припускаємо, що випадкові ефекти (параметри) є випадковими змінними, які слідують за нормальними розподілами. Він дуже схожий на метод Байєса, в якому всі параметри приймаються випадковими. Тож чи є випадкова модель ефекту особливим випадком байєсівського методу?

2
щодо умовної незалежності та її графічного зображення
Під час вивчення відбору коваріації я одного разу прочитав наступний приклад. Щодо наступної моделі: Його матриця коваріації та матриця зворотної коваріації наведені наступним чином, Я не розумію, чому незалежність і визначається тут зворотною коваріацією?xxxyyy Яка математична логіка лежить в основі цього взаємозв'язку? Також лівий графік на наступному малюнку стверджує, що …

2
PyMC для непараметричної кластеризації: Процес Діріхле для оцінки параметрів суміші Гаусса не вдається кластеризувати
Налаштування проблеми Однією з перших іграшкових проблем, до якої я хотів застосувати PyMC, є непараметричне кластеризація: давши деякі дані, моделюйте її як гауссову суміш та дізнайтеся кількість кластерів та середнє значення та коеваріантність кожного кластеру. Більшість того, що я знаю про цей метод, походить з відео-лекцій Майкла Джордана та Йе-Уу-Тех, …

3
Взважена узагальнена регресія в BUGS, JAGS
В Rми можемо «до» ваги в glmрегресії через вагу параметр. Наприклад: glm.D93 <- glm(counts ~ outcome + treatment, family = poisson(), weights=w) Як це можна досягти в JAGSабоBUGS моделі моделі? Я знайшов якийсь документ, який обговорював це, але жоден з них не дає прикладу. Мене цікавлять переважно приклади Пуассона та …

3
Як візуалізувати байєсовську користь пристосованості для логістичної регресії
Для проблеми байєсівської логістичної регресії я створив задній прогнозний розподіл. Я беру вибірку з прогнозного розподілу і отримую тисячі зразків (0,1) за кожне маю спостереження. Візуалізація корисності придатності є менш ніж цікавою, наприклад: Цей сюжет показує 10 000 зразків + спостережна точка даної точки (шлях зліва може виділити червону лінію: …

2
Як я можу моделювати пропорцію BUGS / JAGS / STAN?
Я намагаюся побудувати модель, де відповідь є пропорційною (це фактично частка голосів, яку отримує партія в округах). Її розподіл не є нормальним, тому я вирішив моделювати його бета-розподілом. У мене також є кілька прогнозів. Однак я не знаю, як це написати в BUGS / JAGS / STAN (JAGS був би …

1
Фактори Байєса з неправильними пріорами
У мене є питання щодо порівняння моделі за допомогою факторів Байєса. У багатьох випадках статистики зацікавлені в застосуванні байєсівського підходу з невідповідними пріорами (наприклад, деякими приорами Джеффріса та рефератами). Моє запитання: у тих випадках, коли задній розподіл параметрів моделі чітко визначений, чи справедливо порівнювати моделі з використанням факторів Байєса при …

2
Навчальний посібник з вибору зразків Метрополіс-Гастінгса та Гіббса
Я маю досить хороший практичний досвід роботи з вибіркою Metropolis-Hastings та Gibbs, але хочу краще математичне розуміння цих алгоритмів. Які хороші підручники чи статті, які підтверджують правильність цих пробників (більше алгоритмів також було б чудово)?

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.