Запитання з тегом «gibbs»

Пробовідбірник Гіббса - це проста форма моделювання ланцюга Маркова Монте-Карло, широко застосовувана в баєсівській статистиці, заснована на вибірці з повних умовних розподілів для кожної змінної або групи змінних. Назва походить від методу, який вперше застосовується на випадкових полях Гіббса, що моделюють зображення Geman та Geman (1984).

1
Відбір проб Гіббса для моделі Ізінга
Питання домашнього завдання: Розглянемо модель 1-го Ізінга. Нехай . або -1, або +1х яx=(x1,...xd)x=(x1,...xd)x = (x_1,...x_d)xixix_i π(x)∝e∑39i=1xixi+1π(x)∝e∑i=139xixi+1\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}} Створіть алгоритм вибірки гібса, щоб генерувати вибірки приблизно з цільового розподілу .π(x)π(x)\pi(x) Моя спроба: Випадково виберіть значення (-1 або 1), щоб заповнити вектор . Тож може бути . Отже, це .х …

2
Як такі програми, як BUGS / JAGS, автоматично визначають умовні розподіли для вибірки Gibbs?
Здається, що повні умови часто бувають досить важкими, але такі програми, як JAGS та BUGS, отримують їх автоматично. Чи може хтось пояснити, як вони алгоритмічно генерують повні умови для будь-якої довільної специфікації моделі?

2
Плутанина, пов'язана з вибіркою Гіббса
Я натрапив на цю статтю, де сказано, що в вибірці Гіббса приймається кожен зразок. Я трохи розгублений. Як прийти, якщо кожен зразок, який він прийняв, переходить до нерухомого розподілу. Загалом алгоритм Метрополіса приймаємо як min (1, p (x *) / p (x)), де x * - точка вибірки. Я припускаю, …

2
Обчисліть криву ROC для даних
Отже, у мене є 16 випробувань, в яких я намагаюся ідентифікувати людину з біометричної ознаки за допомогою дистанції Hamming. Мій поріг встановлено на 3,5. Мої дані нижче, і лише пробна версія 1 - справжнє Позитивне: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

1
Чи можу я виконати вибірку великого набору даних під час кожної ітерації MCMC?
Проблема: Я хочу виконати вибірку Gibbs, щоб зробити деякий задній для великого набору даних. На жаль, моя модель не дуже проста, і тому вибірки є надто повільними. Я б розглядав варіативні чи паралельні підходи, але перш ніж піти так далеко ... Запитання: Я хотів би знати, чи можу я випадково …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.