Запитання з тегом «bayesian»

Байєсівський висновок - це метод статистичного висновку, який спирається на трактування параметрів моделі як випадкових змінних і застосування теореми Байєса для виведення суб'єктивних тверджень про ймовірність щодо параметрів або гіпотез, що залежать від спостережуваного набору даних.

3
Налаштування гіпер параметрів: Випадковий пошук та оптимізація Байєса
Отже, ми знаємо, що випадковий пошук працює краще, ніж пошук в сітці, але останнім підходом є байєсівська оптимізація (з використанням гауссових процесів). Я шукав порівняння між ними, і нічого не знайшов. Я знаю, що в cs231n Стенфорда вони згадують лише випадковий пошук, але можливо, що вони хотіли зробити все просто. …

5
Підручник для байєсівської економетрики
Я шукаю теоретично суворий підручник з байєсівської економетрії, припускаючи чітке розуміння частістської економетрики. Я хотів би запропонувати одну роботу за кожну відповідь, щоб рекомендації можна було проголосувати вгору або вниз окремо.

2
Розгортання монети, процеси прийняття рішень та значення інформації
Уявіть наступне налаштування: у вас є 2 монети, монета A, яка гарантовано є справедливою, і монета B, яка може бути, а може і не бути справедливою. Вас просять зробити 100 монет, і ваша мета - збільшити кількість головок . Ваша попередня інформація про монету B полягає в тому, що вона …

1
Регульована байєсівська логістична регресія в JAGS
Існує декілька математично важких паперів, які описують байєсівський Лассо, але я хочу перевірити правильний код JAGS, який я можу використовувати. Чи може хтось розмістити зразок коду BUGS / JAGS, який реалізує регульовану логістичну регресію? Будь-яка схема (L1, L2, Elasticnet) була б чудовою, але віддає перевагу Лассо. Мені також цікаво, чи …

1
Чи існує байєсівська інтерпретація для REML?
Чи доступна байєсівська інтерпретація REML? На мою інтуїцію, REML має велику схожість з так званими емпіричними процедурами оцінки Байєса , і мені цікаво, чи не було продемонстровано якесь асимптотичне еквівалентність (під якийсь відповідний клас пріорів). І емпіричний Байєс, і REML здаються "компрометованими" підходами до оцінки, наприклад, в умовах неприємних параметрів …

1
Байєсівське ласо проти шипа та плити
Питання: Які переваги / недоліки використання одного попереднього над іншим для вибору змінної? Припустимо, я маю ймовірність: де я можу поставити будь- який з пріорів: w i ∼ π δ 0 + ( 1 - π ) N ( 0 , 100 )у∼ N( Xw , σ2Я)у∼N(Хш,σ2Я)y\sim\mathcal{N}(Xw,\sigma^2I) або: w i …

2
Як Naive Bayes працює з безперервними змінними?
На моє (дуже базове) розуміння, Naive Bayes оцінює ймовірності на основі частоти класів кожної функції у навчальних даних. Але як він обчислює частоту безперервних змінних? І коли робите прогнозування, як воно класифікує нове спостереження, яке може не мати однакових значень у будь-якого спостереження у навчальному наборі? Він використовує якусь міру …

6
Оцінка MLE проти MAP, коли використовувати який?
MLE = Максимальна оцінка ймовірності MAP = Максимум a posteriori MLE інтуїтивно зрозумілий / наївний тим, що він починається лише з ймовірності спостереження за даним параметром (тобто функцією ймовірності) і намагається знайти параметр, що найкраще відповідає спостереженню . Але це не враховує попередніх знань. MAP видається більш розумним, оскільки він …

4
Чи підходять методи, засновані на MCMC, коли доступна оцінка максимального a-posteriori?
Я помічав, що у багатьох практичних програмах методики на основі MCMC використовуються для оцінки параметра, навіть якщо задній є аналітичним (наприклад, тому, що пріори були сполученими). Для мене має сенс використовувати MAP-оцінки, а не оцінки на основі MCMC. Чи може хтось зазначити, чому MCMC все ще є відповідним методом за …

2
Що таке байєсівське глибоке навчання?
Що таке байєсівське глибоке навчання і як воно пов'язане з традиційною баєсійською статистикою та традиційним глибоким навчанням? Які основні поняття та математика задіяні? Чи можу я сказати, що це просто не параметрична байесівська статистика? Які його семінарські роботи, а також сучасні основні розробки та застосування? PS: Байєсівське глибоке навчання привертає …

3
Виконайте MCMC: використовуйте jags / stan або реалізуйте його самостійно
Я новачок у баєсівській статистиці. Я чув від дослідників, що байєсські дослідники краще впроваджують MCMC самостійно, а не використовують такі інструменти, як JAGS / Stan. Чи можу я запитати, яка користь від самостійного впровадження алгоритму MCMC ("не дуже швидкими" мовами, такими як R), за винятком цілей навчання?
13 bayesian  mcmc 

2
Здійснення байєсів до результатів, що часто виникають
Як слід рухатись до перетворення частотистського результату в байєсівський пріоритет? Розглянемо наступний досить загальний сценарій: Експеримент проводився в минулому, і було виміряно результат за деяким параметром . Аналіз робився за допомогою частотистської методології. В результатах задається інтервал довіри для .ϕϕϕ\phiϕϕ\phi Зараз я провожу новий експеримент, де я хочу виміряти деякі …

1
Визначення розміру ефекту в мета-аналізі
Моє питання стосується настоятелі про розміри ефекту, в моєму проекті міра Коена . Читаючи літературу, здається, часто використовуються розпливчасті пріори, як, наприклад, у відомих восьми школах приклад ієрархічного байєсівського метааналізу. У восьми прикладах шкіл я бачив розпливчастий раніше, використовуваний для оцінки mu, наприклад, μ θ ∼ нормальний ( 0 , …

1
Теорема Байєса з множинними умовами
Я не розумію, як було отримано це рівняння. P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} Це рівняння було виведене з статті "Проба з імовірністю", де в якості прикладу була подана справа О. Я. Сімпсона. Підсудного засуджено за подвійне вбивство та проти нього введено два докази. M1M1M_{1} - це випадок, коли кров підсудного …

1
Параметри проти прихованих змінних
Я раніше про це запитував і справді боровся з визначенням того, що робить параметр моделі, а що робить його прихованою змінною. Отож, дивлячись на різні теми на цій темі на цьому сайті, головна відмінність виглядає так: Латентні змінні не спостерігаються, але мають пов'язаний з ними розподіл ймовірностей, оскільки вони є …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.