Запитання з тегом «bayesian»

Байєсівський висновок - це метод статистичного висновку, який спирається на трактування параметрів моделі як випадкових змінних і застосування теореми Байєса для виведення суб'єктивних тверджень про ймовірність щодо параметрів або гіпотез, що залежать від спостережуваного набору даних.

3
Імовірність проти умовного розподілу для байєсівського аналізу
Ми можемо записати теорему Байєса як p(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} де - задній, - умовний розподіл, а - попередній.p(θ|x)p(θ|x)p(\theta|x)f(X|θ)f(X|θ)f(X|\theta)p(θ)p(θ)p(\theta) або p(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(\theta|x) = \frac{L(\theta|x)p(\theta)}{\int_{\theta} L(\theta|x)p(\theta)d\theta} де - задній, - функція ймовірності, а - пріоритетна.p(θ|x)p(θ|x)p(\theta|x)L(θ|x)L(θ|x)L(\theta|x)p(θ)p(θ)p(\theta) Моє запитання Чому баєсівський аналіз робиться за допомогою функції ймовірності, а не умовного розподілу? Чи можете ви …

5
Чи стандартизація незалежних змінних зменшує колінеарність?
Я натрапив на дуже хороший текст про Bayes / MCMC. ІТ передбачає, що стандартизація ваших незалежних змінних зробить алгоритм MCMC (Metropolis) більш ефективним, але також може зменшити (багато) колінеарність. Чи може це бути правдою? Це щось, що я повинен робити як стандарт . (Вибачте). Kruschke 2011, Doing Bayesian Analysis Data. …


3
Дослідник 1 проводить 1000 регресій, дослідник 2 працює лише 1, обидва отримують однакові результати - чи повинні вони робити різні умовиводи?
Уявіть, що дослідник досліджує набір даних та виконує 1000 різних регресій, і він виявляє одне цікаве відношення між ними. Тепер уявіть, що інший дослідник з тими ж даними виконує лише 1 регресію, і виявляється, що той самий дослідник взяв 1000 регресій, щоб знайти. Дослідник 2 не знає дослідника 1. Чи …

2
Надійність режиму з зразка MCMC
У своїй книзі Doing Bayesian Analysis Data, John Kruschke зазначає, що при використанні JAGS від R ... оцінка режиму з зразка MCMC може бути досить нестабільною, оскільки оцінка базується на алгоритмі згладжування, який може бути чутливим до випадкових ударів та пульсацій у зразку MCMC. ( Проведення Байєсівського аналізу даних , …
12 bayesian  mcmc  mode 

3
Що означає, що щось має хороші частолістські властивості?
Я часто чув цю фразу, але ніколи не розумів, що вона означає. В даний час фраза "хороші частолістські властивості" має близько 2750 звернень у Google, 536 - на scilar.google.com, а 4 - на statts.stackexchange.com . Найближче, що я знайшов для чіткого визначення, походить з остаточного слайду в цій презентації університету …

3
що означає числова інтеграція занадто дорого?
Я читаю про байєсівські умовиводи і натрапив на фразу "числова інтеграція граничної ймовірності занадто дорога" У мене немає досвіду математики, і мені було цікаво, що саме тут означає дороге ? Це просто з точки зору обчислювальної потужності чи є щось більше.

2
Обґрунтування попереднього сполучення?
Окрім зручності використання, чи є епістемічне обґрунтування (математичне, філософське, евристичне тощо) використання сполучених пріорів? Або це здебільшого просто те, що зазвичай це досить гарне наближення та робить речі набагато простішими?

1
Коли я повинен турбуватися про парадокс Джеффріс-Ліндлі у виборі моделі Байесія?
Я розглядаю великий (але кінцевий) простір моделей різної складності, які я досліджую за допомогою RJMCMC . Попередній вектор параметрів для кожної моделі є досить інформативним. У яких випадках (якщо такі є) я повинен турбуватися через парадокс Джеффріс-Ліндлі, який надає перевагу більш простим моделям, коли одна з більш складних моделей буде …

2
Які переваги використання байєсівської нейронної мережі
Нещодавно я прочитав деякі статті про нейромережу Байєса (BNN) [Neal, 1992] , [Neal, 2012] , що дає ймовірне співвідношення між входом і виходом у нейронній мережі. Навчання такої нейронної мережі здійснюється за допомогою MCMC, який відрізняється від традиційного алгоритму поширення зворотного зв'язку. Моє запитання: Яка перевага використання такої нейронної мережі? …

2
Які параметри задньої частини Вішарта-Вішарта?
При виведенні матриці точності ΛΛ\boldsymbol{\Lambda} нормального розподілу, що використовується для генерування NNN D-розмірних векторів x1,..,xNx1,..,xN\mathbf{x_1},..,\mathbf{x_N} xi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} \mathbf{x_i} &\sim \mathcal{N}(\boldsymbol{\mu, \Lambda^{-1}}) \\ \end{align} ми зазвичай ставимо Wishart перед ΛΛ\boldsymbol{\Lambda} оскільки розподіл Wishart є кон'югатом до точність багатоваріантного нормального розподілу з відомою середньою і невідомою дисперсією: Λ∼W(υ,Λ0)Λ∼W(υ,Λ0)\begin{align} \mathbf{\Lambda} &\sim \mathcal{W}(\upsilon, \boldsymbol{\Lambda_0}) \\ …

1
Як інтерпретувати графік автокореляції в MCMC
Я знайомлюсь із статистикою Байєса, читаючи книгу " Проведення байєсівського аналізу даних " Джона К. Крушке, також відомого як "цуценя книга". У розділі 9 ієрархічні моделі знайомляться з цим простим прикладом: а спостереження Бернуллі - 3 монети, кожні 10 фліп. Один показує 9 голів, інший 5 голів та інший 1 …

5
Як виконати імпутацію значень у дуже великій кількості точок даних?
У мене дуже великий набір даних, і близько 5% випадкових значень відсутні. Ці змінні співвідносяться між собою. Наступний приклад набору даних R - це лише іграшковий приклад з манекено-корельованими даними. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

2
Чому цей розподіл рівномірний?
Ми досліджуємо байєсівські статистичні випробування, і натрапимо на дивне (на мене принаймні) явище. Розглянемо наступний випадок: нас цікавить вимірювання того, яке населення, А чи В, має більш високий коефіцієнт конверсії. Для перевірки встановлюємо , тобто ймовірність конверсії однакова в обох групах. Ми створюємо штучні дані за допомогою біноміальної моделі, наприкладpA=pBpA=pBp_A …

2
Інтелектуальний бал та визначення переможця
Є подкаст NPR під назвою Intelligence Squared. Кожен епізод - це трансляція прямої дискусії щодо суперечливого твердження, наприклад, "2-я поправка вже не має значення" або "Стверджувальна дія на кампусах коледжу приносить більше шкоди, ніж користі". Чотири представники дебатують - двоє за рух та двоє проти. Щоб визначити, яка сторона виграє, …
12 bayesian  rating 

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.