Запитання з тегом «hierarchical-bayesian»

Ієрархічні баєсові моделі задають пріори за параметрами, а гіперприори на параметри попередніх розподілів

2
Модифікована теорема Байєса XKCD: насправді якась розумна?
Я знаю, що це з коміксу, який відомий тим, що скористався певними аналітичними тенденціями , але насправді це виглядає обґрунтовано після кількох хвилин погляду. Чи може хтось окреслити для мене, що робить ця " модифікована теорема Байєса "?

2
Яка різниця між "глибоким навчанням" та багаторівневим / ієрархічним моделюванням?
Чи "глибоке навчання" - це ще один термін для багаторівневого / ієрархічного моделювання? Я набагато більше знайомий з останнім, ніж з першим, але, як я можу сказати, головна відмінність полягає не в їх визначенні, а в тому, як вони використовуються та оцінюються в межах своєї області застосування. Схоже, кількість вузлів …

5
Як боротися з ієрархічними / вкладеними даними в машинному навчанні
Я поясню свою проблему на прикладі. Припустимо, ви хочете передбачити дохід фізичної особи за деякими ознаками: {Вік, стать, країна, регіон, місто}. У вас такий навчальний набір даних train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

2
У чому проблема з емпіричними пріорами?
У літературі я іноді натрапляю на зауваження, що вибір теоретиків, які залежать від самих даних (наприклад, Zellners g-prior), можна піддавати критиці з теоретичної точки зору. Де саме проблема, якщо попередній не обраний незалежно від даних?

1
На прикладі 8 шкіл Гельмана, чому вважається відома стандартна помилка індивідуальної оцінки?
Контекст: У прикладі 8-шкільних шкіл Гельмана (Bayesian Data Analysis, 3-е видання, гл. 5.5) є 8 паралельних експериментів у 8 школах, які перевіряють ефект коучингу. Кожен експеримент дає оцінку ефективності коучінгу та пов'язаної з ним стандартної помилки. Потім автори будують ієрархічну модель для 8 точок даних ефекту коучінга наступним чином: yi∼N(θi,sei)θi∼N(μ,τ)yi∼N(θi,sei)θi∼N(μ,τ) …

2
Байєсова оцінка
Це питання є технічним продовженням цього питання . У мене виникають проблеми з розумінням та тиражуванням моделі, представленої в Raftery (1988): Висновок щодо біноміального параметра : ієрархічний підхід БайєсаNNN в WinBUGS / OpenBUGS / JAGS. Тут йдеться не лише про код, хоча це повинно бути тематичним тут. Фон Нехай - …

2
Які попередні розподіли могли / повинні бути використані для дисперсії в ієрархічній байєсанській моделі, коли середня дисперсія представляє інтерес?
У своїй широко цитованій статті Попередні розподіли щодо параметрів дисперсії в ієрархічних моделях (916 цитування до цих пір в Google Академія) Гельман пропонує, що хорошими неінформативними попередніми розподілами для дисперсії в ієрархічній баєсовій моделі є рівномірний розподіл і розподіл на пів t. Якщо я правильно розумію, це працює добре, коли …

1
Чому додавання ефекту відставання означає середнє відхилення в ієрархічній моделі Баєса?
Передумови: Зараз я виконую деяку роботу, порівнюючи різні ієрархічні моделі Баєса. Дані це числові показники добробуту для учасника i та часу j . У мене близько 1000 учасників і від 5 до 10 спостережень на кожного учасника.уi jуijy_{ij}iiijjj Як і у більшості поздовжніх наборів даних, я очікую побачити певну форму …

1
Чому надлишкова середня параметризація прискорює Gibbs MCMC?
У книзі Gelman & Hill (2007) (Аналіз даних за допомогою регресії та багаторівневих / Ієрархічних моделей) автори стверджують, що включення надлишкових середніх параметрів може допомогти прискорити MCMC. Наведений приклад - це вкладена модель "тренажера польоту" (урівень 13.9): уiγjδк∼ N( μ + γj [ i ]+ δk [ i ], σ2у)∼ …

2
Які параметри задньої частини Вішарта-Вішарта?
При виведенні матриці точності ΛΛ\boldsymbol{\Lambda} нормального розподілу, що використовується для генерування NNN D-розмірних векторів x1,..,xNx1,..,xN\mathbf{x_1},..,\mathbf{x_N} xi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} \mathbf{x_i} &\sim \mathcal{N}(\boldsymbol{\mu, \Lambda^{-1}}) \\ \end{align} ми зазвичай ставимо Wishart перед ΛΛ\boldsymbol{\Lambda} оскільки розподіл Wishart є кон'югатом до точність багатоваріантного нормального розподілу з відомою середньою і невідомою дисперсією: Λ∼W(υ,Λ0)Λ∼W(υ,Λ0)\begin{align} \mathbf{\Lambda} &\sim \mathcal{W}(\upsilon, \boldsymbol{\Lambda_0}) \\ …

1
Точний тест Фішера та гіпергеометричне поширення
Я хотів краще зрозуміти точний тест Фішера, тому я розробив наступний іграшковий приклад, де f і m відповідає чоловічому та жіночому, а n і y відповідає такому "споживання соди", як це: > soda_gender f m n 0 5 y 5 0 Очевидно, це різке спрощення, але я не хотів, щоб …

1
Чому LKJcorr є гарним пріоритетом для кореляційної матриці?
Я читаю розділ 13 "Пригоди в коваріації" у ( чудовій ) книзі " Статистичне переосмислення " Річарда МакЛарета, де він подає таку ієрархічну модель: ( Rє кореляційною матрицею) Автор пояснює, що LKJcorrце слабоінформативний характер, який працює як регуляризуючий попередній для кореляційної матриці. Але чому це так? Які характеристики LKJcorrмає розподіл, …

5
Що саме означає позичати інформацію?
Мені часто люди говорять про запозичення інформації або обмін інформацією в ієрархічних моделях Баєса. Я, здається, не можу отримати прямої відповіді про те, що це насправді означає, і якщо воно є унікальним для баєсових ієрархічних моделей. Я якось здобув ідею: деякі рівні у вашій ієрархії мають спільний параметр. Я поняття …

2
Чому обмежена максимальна ймовірність дає кращу (неупереджену) оцінку дисперсії?
Я читаю теоретичний документ Дуга Бейтса про пакет lme4 R для того, щоб краще зрозуміти складність і змішаність моделей, і натрапив на інтригуючий результат, який я хотів би зрозуміти краще, щодо використання обмеженої максимальної ймовірності (REML) для оцінки дисперсії . У розділі 3.3 щодо критерію REML він зазначає, що використання …

1
Гіперприорна щільність для ієрархічної моделі Гамма-Пуассона
В ієрархічній моделі даних де y ∼ Пуассон ( λ ) λ ∼ Гамма ( α , β ) на практиці типово вибирати значення ( α , β ), такі, що середнє значення та дисперсія гамма-розподілу приблизно збігаються з середнє значення та відмінність даних y (наприклад, Клейтон та Калдор, 1987, …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.