Запитання з тегом «bayesian»

Байєсівський висновок - це метод статистичного висновку, який спирається на трактування параметрів моделі як випадкових змінних і застосування теореми Байєса для виведення суб'єктивних тверджень про ймовірність щодо параметрів або гіпотез, що залежать від спостережуваного набору даних.

3
Чому ніхто не використовує байєсовський багаточленний класичний наївний Байєс?
Так, у (непідконтрольному) текстовому моделюванні, латентне розподілення Діріхле (LDA) є баєсовою версією ймовірнісного латентного семантичного аналізу (PLSA). По суті, LDA = PLSA + Діріхле перед своїми параметрами. Я розумію, що LDA тепер є контрольним алгоритмом і реалізується в різних пакетах, тоді як PLSA більше не слід використовувати. Але в (під …

3
Розуміння теорії d-поділу в причинних байєсівських мережах
Я намагаюся зрозуміти логіку d-розділення в причинних байєсівських мережах. Я знаю, як працює алгоритм, але я не точно розумію, чому працює "потік інформації", як зазначено в алгоритмі. Наприклад, на графіку вище, давайте подумаємо, що нам задано лише X, а іншої змінної не спостерігається. Тоді, згідно з правилами d-поділу, потік інформації …

2
Плоскі, кон'юговані та гіперприори. Хто вони?
В даний час я читаю про Байєсові методи в обчислювальній молекулярній еволюції Ян. У розділі 5.2 мова йде про пріори, зокрема про неінформативні / плоскі / розпливчасті / дифузні, сполучені та гіперприори. Це може бути запитання про надмірне спрощення, але чи може хтось просто пояснити різницю між цими видами пріорів …
15 bayesian  prior 

2
Оцінка коваріаційного заднього розподілу багатоваріантного гаусса
Мені потрібно «навчитися» розподілу біваріантного гаусса з кількома зразками, але гарна гіпотеза щодо попереднього розподілу, тому я хотів би скористатися байєсівським підходом. Я визначив своє попереднє: P(μ)∼N(μ0,Σ0)P(μ)∼N(μ0,Σ0) \mathbf{P}(\mathbf{\mu}) \sim \mathcal{N}(\mathbf{\mu_0},\mathbf{\Sigma_0}) μ0=[00] Σ0=[160027]μ0=[00] Σ0=[160027] \mathbf{\mu_0} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} \ \ \ \mathbf{\Sigma_0} = \begin{bmatrix} 16 & 0 \\ …

2
Що таке "метод передачі повідомлень"?
У мене розпливчасте розуміння, що таке метод передачі повідомлення: алгоритм, який будує наближення до розподілу шляхом ітеративної побудови апроксимації кожного з факторів розподілу, обумовлених усіма наближеннями всіх інших факторів. Я вважаю, що обидва є прикладами змінної передачі повідомлень та розповсюдження очікування . Що таке алгоритм передачі повідомлень більш чітко / …

2
Зв'язок статистики Баєса та генеративного моделювання
Чи може хтось віднести мене до хорошої довідки, яка пояснює зв’язок між байєсівською статистикою та методами генеративного моделювання? Чому ми зазвичай використовуємо генеративні моделі за допомогою байєсівської техніки? Чому особливо привабливо використовувати статистику Баєса за відсутності повних даних, якщо вони взагалі є? Зауважте, що я виходжу з більш орієнтованого на …

4
Інтервали довіри для параметрів регресії: Байесова проти класичної
З огляду на два масиви x і y, обидві довжиною n, я підходять до моделі y = a + b * x і хочу обчислити 95% довірчий інтервал для схилу. Це (b - дельта, b + дельта), де b зустрічається звичайним чином і delta = qt(0.975,df=n-2)*se.slope а se.slope - це …

2
Звідки беруться повні умови в вибірці Гіббса?
Алгоритми MCMC, такі як відбір проб Metropolis-Hastings та Gibbs, є способами відбору проб із спільних заднього розподілу. Я думаю, що я розумію і можу легко реалізувати мегаполіси - ви просто якось вибираєте початкові точки і «прогулюєте простір параметрів» випадковим чином, керуючись задньою щільністю та щільністю пропозицій. Вибірка Гіббса здається дуже …
15 bayesian  mcmc  gibbs 

2
Чи існує стандартний метод вирішення проблеми переключення міток при оцінці моделей сумішей?
Перемикання міток (тобто задній розподіл інваріантно для переключення міток компонентів) є проблематичним питанням при використанні MCMC для оцінки моделей сумішей. Чи існує стандартна (як у широко прийнятій) методологія для вирішення цього питання? Якщо немає стандартного підходу, то які плюси та мінуси провідних підходів до вирішення проблеми переключення міток?
15 bayesian  mcmc  mixture 

2
Нормалізуюча константа в теоремі Байєса
Я читав , що в правилі Байеса, знаменник зPr(data)Pr(data)\Pr(\textrm{data}) Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)\Pr(\text{parameters} \mid \text{data}) = \frac{\Pr(\textrm{data} \mid \textrm{parameters}) \Pr(\text{parameters})}{\Pr(\text{data})} називається нормою, що нормалізується . Що це саме? Яке його призначення? Чому це схоже на Pr(data)Pr(data)\Pr(data) ? Чому це не залежить від параметрів?

5
Чи є більше ймовірності, ніж байєсіанство?
Будучи студентом фізики, я пережив лекцію "Чому я баєс", мабуть, півдесятка разів. Це завжди те саме - ведучий самовдоволено пояснює, наскільки байєсівська інтерпретація перевершує частотулістську інтерпретацію, якою нібито користуються маси. Вони згадують правління Байєса, маргіналізацію, пріори та постеріори. Яка реальна історія? Чи існує законна область застосунку для частотистської статистики? (Безумовно, …

2
Що таке хороший попередній розподіл на ступінь свободи при розподілі?
Я хочу використовувати при розподілі для моделювання коротких інтервальних повернень активів у байєсовій моделі. Я хотів би оцінити обидва ступені свободи (разом з іншими параметрами в моїй моделі) для розподілу. Я знаю, що віддача активів є зовсім ненормальною, але я не знаю занадто багато того. Який відповідний, м'яко інформативний попередній …

3
Коли інтервал довіри "має сенс", але відповідний достовірний інтервал не робить?
Часто буває так, що довірчий інтервал з покриттям 95% дуже схожий на достовірний інтервал, який містить 95% задньої щільності. Це відбувається, коли попередній є рівномірним або майже однорідним в останньому випадку. Таким чином, довірчий інтервал часто можна використовувати для наближення достовірного інтервалу і навпаки. Важливо, що з цього можна зробити …

1
Гамільтонський Монте-Карло для муляжів
Не могли б ви надати покрокове для манекенів пояснення того, як працює Гамільтоніанський Монте-Карло? PS: Я вже читав відповіді тут, Гамільтонський Монте Карло , і тут, Гамільтоніан Монте-Карло проти Послідовного Монте-Карло , і тут, Гамільтоніан Монте-Карло: як зрозуміти пропозицію Метрополіс-Гастінг? і вони не звертаються до нього поетапно.
14 bayesian  hmc 

4
Ймовірність того, що нульова гіпотеза правдива
Отже, це може бути звичайним питанням, але я ніколи не знайшов задовільної відповіді. Як визначити ймовірність того, що нульова гіпотеза є істинною (або помилковою)? Скажімо, ви даєте студентам дві різні версії тесту і хочете перевірити, чи були версії еквівалентними. Ви виконуєте t-тест, і він дає p-значення .02. Яке приємне p-значення! …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.