Запитання з тегом «mcmc»

Ланцюг Маркова Монте-Карло (MCMC) відноситься до класу методів генерації вибірок із цільового розподілу шляхом генерації випадкових чисел з ланцюга Маркова, стаціонарне розподіл якого є цільовим розподілом. Методи MCMC, як правило, застосовуються, коли більш прямі методи для генерації випадкових чисел (наприклад, інверсійний метод) є нездійсненними. Першим методом MCMC був алгоритм Metropolis, пізніше модифікований на алгоритм Metropolis-Hastings.

3
Чому в деяких випадках гамільтонівська динаміка краща за пропозицію про випадкові прогулянки в MCMC?
Гамільтонова динаміка завжди перевершує, ніж випадкова хода в алгоритмі Метрополіса в деяких випадках. Чи може хтось пояснити причину простими словами без зайвої математики?
10 mcmc 

2
Як взяти вибірку з дискретного розподілу на невід’ємні цілі числа?
У мене є такий дискретний розподіл, де відомі постійні:α,βα,β\alpha,\beta p ( x ; α , β) =Бета ( α + 1 , β+ х )Бета ( α , β)для x = 0 , 1 , 2 , …p(x;α,β)=Beta(α+1,β+x)Beta(α,β)for x=0,1,2,… p(x;\alpha,\beta) = \frac{\text{Beta}(\alpha+1, \beta+x)}{\text{Beta}(\alpha,\beta)} \;\;\;\;\text{for } x = 0,1,2,\dots Які існують …

2
Чи відбір проб на основі Маркова є "найкращим" для відбору проб Монте-Карло? Чи є альтернативні схеми?
Ланцюг Маркова Монте-Карло - це метод, заснований на ланцюгах Маркова, який дозволяє отримувати зразки (в умовах Монте-Карло) з нестандартних розподілів, з яких ми не можемо безпосередньо брати зразки. Моє запитання, чому ланцюжок Маркова є "найсучаснішим" для відбору проб Монте-Карло. Альтернативним питанням може бути, чи існують інші способи, як ланцюги Маркова, …

3
Winbugs та інші MCMC без інформації для попереднього розповсюдження
Що відбувається, коли ви не маєте уявлення про розподіл параметрів? Який підхід ми повинні використовувати? Більшу частину часу ми прагнемо підкреслити, якщо певна змінна має який-небудь вплив на наявність / відсутність певного виду, і змінна приймається чи ні відповідно до значення змінної. Це означає, що більшість випадків ми не замислюємось …
10 r  bayesian  mcmc  bugs  winbugs 

1
R лінійна регресія, категоріальна змінна значення «приховане»
Це лише приклад, на який я зустрічався кілька разів, тому у мене немає даних про вибірку. Запуск лінійної регресійної моделі в R: a.lm = lm(Y ~ x1 + x2) x1є суцільною змінною. x2категоричний і має три значення, наприклад "Низький", "Середній" та "Високий". Однак вихід, отриманий R, був би на кшталт: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

4
З огляду на 10D ланцюг MCMC, як я можу визначити його задній режим (и) в R?
Запитання: За допомогою 10-мірної ланцюга MCMC скажімо, що я готовий надати вам матрицю малюнків: 100 000 ітерацій (рядків) за 10 параметрами (стовпцями), як найкраще я можу визначити задні режими? Я особливо переймаюся кількома режимами. Фон:Я вважаю себе статистично обґрунтованим статистиком, але коли колега задав мені це питання, мені було соромно, …

1
Гамільтоніан Монте-Карло: як осмислити пропозицію "Метрополіс-Гастінг"?
Я намагаюся зрозуміти внутрішню роботу Гамільтоніана Монте-Карло (HMC), але не можу повністю зрозуміти ту частину, коли ми замінимо детерміновану інтеграцію часу на пропозицію Метрополіс-Гастінг. Я читаю дивовижний вступний документ «Концептуальне вступ до гамільтоніану Монте-Карло » Майкла Бетанкура, тому я буду дотримуватися тих же позначень, які використовуються в ньому. Фон Загальна …
9 mcmc  monte-carlo  hmc 

1
Обмеження MCMC / EM? MCMC над EM?
В даний час я вивчаю ієрархічні байєсові моделі за допомогою JAGS від R, а також pymc за допомогою Python ( "Байєсівські методи для хакерів" ). Я можу отримати певну інтуїцію з цього посту : "ви закінчите купу купу чисел, яка виглядає" так, ніби "вам якимось чином вдалося взяти незалежні вибірки …

2
Виявлення комутації з імовірнісним програмуванням (pymc)
Зараз я читаю "книгу" про ймовірнісне програмування та байєсовські методи для хакерів . Я прочитав кілька розділів, і думав над першою главою, де перший приклад з pymc складається з виявлення точки відьми в текстових повідомленнях. У цьому прикладі випадкова величина, яка вказує, коли відбувається точка комутації, позначається символом . Після …

2
Плутанина, пов'язана з вибіркою Гіббса
Я натрапив на цю статтю, де сказано, що в вибірці Гіббса приймається кожен зразок. Я трохи розгублений. Як прийти, якщо кожен зразок, який він прийняв, переходить до нерухомого розподілу. Загалом алгоритм Метрополіса приймаємо як min (1, p (x *) / p (x)), де x * - точка вибірки. Я припускаю, …

4
(взаємодіючи) MCMC для мультимодальної задньої
Я намагаюся взяти вибірку з задньої частини, яка має багато режимів, особливо далеких один від одного, використовуючи MCMC. Виявляється, що в більшості випадків лише один із цих режимів містить 95% к.с., які я шукаю. Я намагався реалізувати рішення на основі загартованого моделювання, але це не дає задовільних результатів, оскільки на …

1
Створення максимальної ентропійської моделі Маркова з існуючого багатовхідного класифікатора максимальної ентропії
Мене заінтригує концепція моделі максимальної ентропії Маркова (MEMM), і я думаю про те, щоб використати її для тегера частини мови (POS). На даний момент я використовую звичайний класифікатор максимальної ентропії (ME) для позначення кожного окремого слова. Для цього використовується ряд функцій, включаючи попередні два теги. МЕМ використовують алгоритм Вітербі для …

3
Норми прийняття для Метрополіс-Гастінгса з рівномірним розподілом кандидатів
Коли використовується алгоритм Metropolis-Hastings з рівномірним розподілом кандидатів, що обґрунтовує рівень прийняття близько 20%? Думаю: коли виявляться справжні (або близькі до істинних) значення параметрів, то жоден новий набір значень параметрів-кандидатів з того самого рівномірного інтервалу не збільшуватиме значення функції ймовірності. Тому, чим більше ітерацій я запускаю, тим меншими є рівень …

2
Обчисліть криву ROC для даних
Отже, у мене є 16 випробувань, в яких я намагаюся ідентифікувати людину з біометричної ознаки за допомогою дистанції Hamming. Мій поріг встановлено на 3,5. Мої дані нижче, і лише пробна версія 1 - справжнє Позитивне: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

1
Чи можу я виконати вибірку великого набору даних під час кожної ітерації MCMC?
Проблема: Я хочу виконати вибірку Gibbs, щоб зробити деякий задній для великого набору даних. На жаль, моя модель не дуже проста, і тому вибірки є надто повільними. Я б розглядав варіативні чи паралельні підходи, але перш ніж піти так далеко ... Запитання: Я хотів би знати, чи можу я випадково …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.