Запитання з тегом «bayesian»

Байєсівський висновок - це метод статистичного висновку, який спирається на трактування параметрів моделі як випадкових змінних і застосування теореми Байєса для виведення суб'єктивних тверджень про ймовірність щодо параметрів або гіпотез, що залежать від спостережуваного набору даних.

2
Які речі я можу передбачити за допомогою наївного байєсівського класифікатора?
Я початківець зі статистики (взяв лише один курс коледжу), але в мене є досвід програмування. Я щойно почав грати з бібліотекою класифікаторів Байєса для Рубі, і шукаю ідеї для аналізу. Зараз я заплутаюся з категоризацією Tweet, але чи є у вас ідеї? Що ще важливіше, як я можу дізнатися про …

2
Чому існують рекомендації щодо використання Jeffreys або льотчиків на основі ентропії для пробників MCMC?
На своїй вікі-сторінці розробники компанії Stan заявляють: Деякі принципи, які нам не подобаються: інваріантність, Джефріс, ентропія Натомість я бачу багато нормальних рекомендацій щодо розповсюдження. Поки я використовував байєсівські методи, які не покладалися на вибірку, і я був щасливий, що зрозумів, чому був хорошим вибором для біноміальних ймовірностей.θ∼Beta(α=12,β=12)θ∼Beta(α=12,β=12)\theta \sim \text{Beta}\left(\alpha=\frac{1}{2},\beta=\frac{1}{2}\right)
11 bayesian  mcmc  prior  pymc  stan 

1
R / mgcv: Чому тензорні вироби te () і ti () створюють різні поверхні?
У mgcvпакеті Rє дві функції для встановлення тензорних взаємодій між продуктами: te()і ti(). Я розумію основний розподіл праці між двома (встановлення нелінійної взаємодії проти декомпозиції цієї взаємодії на основні ефекти та взаємодію). Чого я не розумію, це чому te(x1, x2)і ti(x1) + ti(x2) + ti(x1, x2)може давати (трохи) різні результати. …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

5
Інтерпретація теореми Байєса, застосована до позитивних результатів мамографії
Я намагаюся обернути голову навколо результату теореми Байєса, застосованого до прикладу класичної мамографії, при цьому поворот мамографії є ​​ідеальним. Це є, Захворюваність на рак:.01.01.01 Ймовірність позитивної мамографії, якщо пацієнт має рак:111 Ймовірність позитивної мамографії, якщо пацієнт не має раку:.01.01.01 Байєс: P (рак | мамограма +) =1⋅.01(1⋅.01)+(.091⋅.99)1⋅.01(1⋅.01)+(.091⋅.99)\dfrac {1 \cdot .01}{(1 \cdot …

1
Коли не можна частотистський розподіл вибірки трактувати як байєсівський задній у регресійних настройках?
Мої актуальні запитання є в останніх двох абзацах, але мотивувати їх: Якщо я намагаюся оцінити середнє значення випадкової величини, яка слід за нормальним розподілом з відомою дисперсією, я прочитав, що введення рівномірного до середнього результату призводить до заднього розподілу, пропорційного функції ймовірності. У цих ситуаціях достовірний інтервал Байєса ідеально перегукується …

2
Чому задня густина пропорційна функції ймовірності попереднього часу густини?
Згідно теореми Байєса, . Але згідно з моїм економетричним текстом, це говорить, що P ( θ | y ) ∝ P ( y | θ ) P ( θ ) . Чому це так? Я не розумію, чому P ( y ) ігнорується.П( у| θ)Р( θ ) = P( θ …


1
Чому люди використовують термін «маса доказів» і чим він відрізняється від «точкової взаємної інформації»?
Тут "маса доказів" (WOE) - поширений термін у опублікованій науковій та політичній літературі, найчастіше розглядається в контексті оцінки ризику, визначеного: w(e:h)=logp(e|h)p(e|h¯¯¯)ш(е:год)=журнал⁡p(е|год)p(е|год¯)w(e : h) = \log\frac{p(e|h)}{p(e|\overline{h})} де докази, h - гіпотеза.eеehгодh Тепер я хочу знати, яка головна відмінність від PMI (точкова взаємна інформація) p m i ( e , h ) …

1
До чого відноситься термін "рідкісний попередній" (папір FBProphet)?
Читаючи статтю "Прогнозування на масштабі" (інструмент прогнозування FBProphet, див. Https://peerj.com/preprints/3190.pdf ), я натрапив на термін "рідкий попередній". Автори пояснюють, що вони використовували такий "рідкий попередній" при моделюванні вектора відхилень швидкостіδδ\mathbf{\delta} від деякої скалярної швидкості ккk, який є параметром моделі в логістичній моделі зростання. Як вони констатують це δj∼ Лаплас ( …

2
Розподіл пропозицій для узагальненого нормального розподілу
Я моделюю розповсюдження рослин за допомогою узагальненого нормального розподілу ( запис у Вікіпедії ), який має функцію щільності ймовірності: b2aΓ(1/b)e−(da)bb2aΓ(1/b)e−(da)b \frac{b}{2a\Gamma(1/b)} e^{-(\frac{d}{a})^b} де ddd - пройдена відстань, aaa - параметр масштабу, а bbb - параметр форми. Середня пройдена відстань задається стандартним відхиленням цього розподілу: a2Γ(3/b)Γ(1/b)−−−−−−−−√a2Γ(3/b)Γ(1/b) \sqrt{\frac{a^2 \Gamma(3/b)}{\Gamma(1/b)}} Це зручно, оскільки …

3
MAP - це рішення
Я натрапив на ці слайди (слайд №16 та №17) на одному з онлайн-курсів. Викладач намагався пояснити, як Максимальна задня оцінка (MAP) насправді є рішенням , де є істинний параметр.θ ∗L ( θ ) = I[ θ ≠ θ∗]L(θ)=I[θ≠θ∗]L(\theta) = \mathcal{I}[\theta \ne \theta^{*}]θ∗θ∗\theta^{*} Може хтось, будь ласка, пояснить, як це випливає? …

6
Прості реальні приклади для навчання байесівської статистики?
Я хотів би знайти кілька «реальних прикладів» для навчання байєсівської статистики. Байєська статистика дозволяє офіційно включити попередні знання в аналіз. Я хотів би надати студентам декілька простих реальних прикладів дослідників, що включають попередні знання в свій аналіз, щоб студенти могли краще зрозуміти мотивацію, чому можна, в першу чергу, використовувати байєсівські …

7
Чи є чутливість чи специфічність функцією поширеності?
Стандартне навчання говорить, що чутливість та специфічність є властивостями тесту і не залежать від поширеності. Але це не просто припущення? Принципи внутрішньої медицини Харрісона говорить 19-е видання Вже давно стверджується, що чутливість та специфічність є незалежними від поширеності параметрами точності тестування, і багато текстів все ще роблять це твердження. Однак …


1
Чи реалізований пробовідбірник Монте-Карло / MCMC, який може мати справу з ізольованими локальними максимумами заднього розподілу?
Наразі я використовую байєсівський підхід для оцінки параметрів для моделі, що складається з декількох ОР. Оскільки у мене є 15 параметрів для оцінювання, мій пробний простір є 15-мірним, і мій пошук заднього розподілу, здається, має багато локальних максимумів, дуже відокремлених великими регіонами з дуже низькою ймовірністю. Це призводить до проблем …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.