Запитання з тегом «posterior»

Посилається на розподіл ймовірності параметрів, обумовлених даними в байєсівській статистиці.

2
Ефективний розмір зразка для заднього висновку з відбору проб MCMC
Отримуючи зразки MCMC, щоб зробити висновок за певним параметром, які хороші орієнтири щодо мінімальної кількості ефективних вибірок, на які слід прагнути? І чи змінюється ця порада, коли модель стає більш-менш складною?

2
Чому проблему захаращення не можна вирішити для великих розмірів вибірки?
Припустимо, у нас є набір точок . Кожна точка формується за допомогою розподілу Для отримання posterior для пишемо Згідно зі статтею Мінка на Очікування поширення нам необхідно 2 ^ N обчислення , щоб отримати задній р (х | \ mathbf {у}) і, таким чином, проблема стає нерозв'язною для великих розмірів …

2
Які параметри задньої частини Вішарта-Вішарта?
При виведенні матриці точності ΛΛ\boldsymbol{\Lambda} нормального розподілу, що використовується для генерування NNN D-розмірних векторів x1,..,xNx1,..,xN\mathbf{x_1},..,\mathbf{x_N} xi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} \mathbf{x_i} &\sim \mathcal{N}(\boldsymbol{\mu, \Lambda^{-1}}) \\ \end{align} ми зазвичай ставимо Wishart перед ΛΛ\boldsymbol{\Lambda} оскільки розподіл Wishart є кон'югатом до точність багатоваріантного нормального розподілу з відомою середньою і невідомою дисперсією: Λ∼W(υ,Λ0)Λ∼W(υ,Λ0)\begin{align} \mathbf{\Lambda} &\sim \mathcal{W}(\upsilon, \boldsymbol{\Lambda_0}) \\ …

1
Кроки, щоб з'ясувати задній розподіл, коли це може бути досить простим, щоб мати аналітичну форму?
Про це також запитали в обчислювальній науці. Я намагаюся обчислити байєсівську оцінку деяких коефіцієнтів для авторегресії з 11 зразків даних: де - гауссова із середнім 0 та дисперсією Попередній розподіл на вектор - гауссовий із середнім та діагональною матрицею коваріації із діагональні записи, що дорівнює .Yi=μ+α⋅Yi−1+ϵiYi=μ+α⋅Yi−1+ϵi Y_{i} = \mu + …

2
Згідно з висновком Байєса, чому деякі терміни випадають із заднього передбачення?
У кон'югатному байесівському аналізі Кевіна Мерфі про розподіл Гаусса він пише, що задній прогнозний розподіл є p(x∣D)=∫p(x∣θ)p(θ∣D)dθp(x∣D)=∫p(x∣θ)p(θ∣D)dθ p(x \mid D) = \int p(x \mid \theta) p(\theta \mid D) d \theta де - це дані, на які підходить модель, а - невидимі дані. Я не розумію, чому залежність від зникає в …

2
Чи може належна попередня і експонентована ймовірність призвести до неправильної задньої?
(Це питання натхнене цим коментарем від Сіаня .) Добре відомо, що якщо правильний попередній розподіл π(θ)π(θ)\pi(\theta) і чітко визначена ймовірність L(θ|x)L(θ|x)L(\theta | x) , то задній розподіл π(θ|x)∝π(θ)L(θ|x)π(θ|x)∝π(θ)L(θ|x)\pi(\theta|x)\propto \pi(\theta) L(\theta|x) є належним майже напевно. У деяких випадках ми використовуємо натомість загартовану або експоненційну ймовірність, що призводить до псевдо-задньої π~(θ|x)∝π(θ)L(θ|x)απ~(θ|x)∝π(θ)L(θ|x)α\tilde\pi(\theta|x)\propto \pi(\theta) …

2
Виведення задньої частини Норма-Вішарта
Я працюю над виведенням задньої частини Normal-Wishart, але я застряг у одному з параметрів (задній частині матриці шкали, див. Внизу). Тільки для контексту та повноти, ось модель та решта похідних: xiμΛ∼N(μ,Λ)∼N(μ0,(κ0Λ)−1)∼W(υ0,W0)xi∼N(μ,Λ)μ∼N(μ0,(κ0Λ)−1)Λ∼W(υ0,W0)\begin{align} x_i &\sim \mathcal{N}(\boldsymbol{\mu}, \boldsymbol{\Lambda})\\ \boldsymbol{\mu} &\sim \mathcal{N}(\boldsymbol{\mu_0}, (\kappa_0 \boldsymbol{\Lambda})^{-1})\\ \boldsymbol{\Lambda} &\sim \mathcal{W}(\upsilon_0, \mathbf{W}_0) \end{align} Розширеними формами кожного з трьох …

1
Приклад максимальної оцінки після
Я читав про оцінку максимальної ймовірності та максимальну післяорієнтовану оцінку, і поки що я зустрічав конкретні приклади лише з максимальною оцінкою ймовірності. Я знайшов декілька абстрактних прикладів максимальної оцінки після, але нічого конкретного з цифрами: S Це може бути дуже непосильним, працюючи лише з абстрактними змінними та функціями, і щоб …

1
Коли не можна частотистський розподіл вибірки трактувати як байєсівський задній у регресійних настройках?
Мої актуальні запитання є в останніх двох абзацах, але мотивувати їх: Якщо я намагаюся оцінити середнє значення випадкової величини, яка слід за нормальним розподілом з відомою дисперсією, я прочитав, що введення рівномірного до середнього результату призводить до заднього розподілу, пропорційного функції ймовірності. У цих ситуаціях достовірний інтервал Байєса ідеально перегукується …

2
Оцініть задній прогнозний розподіл за лінійною регресією Байєса
Мене збентежує те, як оцінити задній прогнозний розподіл за лінійною регресією Байєса, минулий основний випадок, описаний тут на сторінці 3, і скопійований нижче. р (у~∣ у) = ∫р (у~∣ β,σ2) p ( β,σ2∣ у)p(y~∣y)=∫p(y~∣β,σ2)p(β,σ2∣y) p(\tilde y \mid y) = \int p(\tilde y \mid \beta, \sigma^2) p(\beta, \sigma^2 \mid y) Основний …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.