Запитання з тегом «bayesian»

Байєсівський висновок - це метод статистичного висновку, який спирається на трактування параметрів моделі як випадкових змінних і застосування теореми Байєса для виведення суб'єктивних тверджень про ймовірність щодо параметрів або гіпотез, що залежать від спостережуваного набору даних.

2
Яке теоретичне обґрунтування рішень для Байєсових достовірних інтервальних процедур?
(Щоб зрозуміти, чому я це написав, перегляньте коментарі нижче моєї відповіді на це запитання .) Помилки типу III та теорія статистичних рішень Правильна відповідь на неправильну запитання іноді називається помилкою типу III. Теорія статистичних рішень - це формалізація прийняття рішень в умовах невизначеності; він забезпечує концептуальну основу, яка може допомогти …

1
Стаття про неправильне використання статистичного методу в NYTimes
Я маю на увазі цю статтю: http://www.nytimes.com/2011/01/11/science/11esp.html Розглянемо наступний експеримент. Припустимо, було підстави вважати, що монета була трохи зваженою до голови. Під час випробування монета піднімає голови 527 разів із 1000. Це вагомі докази того, що монета зважена? Класичний аналіз говорить так. При справедливій монеті шанси отримати 527 і більше …

4
Які правильні значення для точності та відкликання у кращих випадках?
Точність визначається як: p = true positives / (true positives + false positives) Чи правильно, що як true positivesі false positivesпідхід 0, точність наближається до 1? Те саме запитання для відкликання: r = true positives / (true positives + false negatives) Зараз я впроваджую статистичний тест, де мені потрібно обчислити …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

2
Байесівські думки про переодягнення
Я багато часу приділяв розробці методів та програмного забезпечення для перевірки прогнозних моделей у традиційній періодичній статистиці. Втілюючи в життя більше ідей Баєса, я бачу деякі ключові відмінності. По-перше, байєсівське прогностичне моделювання просить аналітика подумати над попередніми розподілами, які можуть бути налаштовані під особливості кандидата, і ці пріори підтягнуть модель …

2
Що таке / є неявними пріоритетами у частотистській статистиці?
Я чув почуття, що Джейнес стверджує, що лікарі-оператори працюють з "неявним попереднім". Що це або є ці неявні пріори? Чи означає це, що періодичні моделі - це все особливі випадки байєсівських моделей, які чекають їх пошуку?

3
Чому в теорезі Байєса необхідний нормуючий фактор?
Теорема Байєса йде P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Це все добре. Але я десь читав: В основному P (дані) - це не що інше, як нормалізуюча константа, тобто константа, яка змушує задню щільність інтегруватися в одну. Ми знаємо, що і . 0≤P(model)≤10≤P(model)≤10 \leq P(\textrm{model}) \leq 10≤P(data|model)≤10≤P(data|model)≤1 0 \leq P(\textrm{data}|\textrm{model}) …

3
Ніжчий підхід до байєсівської статистики
Нещодавно я почав читати «Вступ до байєсівської статистики» 2-го видання Bolstad. У мене був клас вступної статистики, який охоплював в основному статистичні тести і я майже через клас регресійного аналізу. Які ще книги я можу використати, щоб доповнити своє розуміння цієї? Я проробив це на перших 100-125 сторінках добре. Після …

1
Коли можна використовувати вибірку Гіббса замість Metropolis-Hastings?
Існують різні види алгоритмів MCMC: Метрополіс-Гастінгс Гіббс Важливість / відбір вибірки (пов'язаний). Чому можна використовувати вибірку Гіббса замість Metropolis-Hastings? Я підозрюю, що трапляються випадки, коли висновок є більш простежуваним за допомогою відбору проб Гіббса, ніж з "Метрополіс-Гастінгсом", але мені не зрозуміло конкретики.

1
Антонім дисперсії
Чи є слово, яке означає «обернення дисперсії»? Тобто, якщо має велику дисперсію, то має низьку ? Ви не зацікавлені в близькому антонімі (наприклад, "угода" чи "схожість"), але конкретно в значенні ?ХХXХХX……\dots1 / σ21/σ21/\sigma^2

2
Як застосувати теорему Байєса до пошуку рибалки, загубленого в морі
Стаття «Коефіцієнти, які постійно оновлюються» згадується історія рибалки на Лонг-Айленді, який буквально завдячує своїм життям Байєсовій статистиці. Ось коротка версія: На човні посеред ночі стоять два рибалки. Поки один спить, інший падає в океан. Човен продовжує тролею на автопілоті всю ніч, поки перший хлопець нарешті не прокинеться і не сповістить …

4
Чи потрібен аналіз потужності в байєсівській статистиці?
Останнім часом я досліджував байєсівську класичну статистику. Прочитавши про фактор Байєса, я не замислювався, чи необхідний аналіз потужності в цьому погляді на статистику. Моя головна причина, що цікаво, що це фактор Байєса, справді, просто виявляється співвідношенням ймовірності. Як тільки це 25: 1, здається, я можу назвати це ніч. Я далеко? …

2
Стабільність перехресної валідації в байєсівських моделях
Я встановлюю байєсівський HLM в JAGS, використовуючи k-кратну перехресну перевірку (k = 5). Мені хотілося б знати, чи стабільні оцінки параметра у всіх складках. Який найкращий спосіб зробити це?ββ\beta Одна ідея полягає в тому, щоб знайти різниці постерів і побачити, чи 0 в 95% CI різниці. Іншими словами, 0 в …

1
Які алгоритми / методи MCMC використовуються для дискретних параметрів?
Я знаю неабияку кількість пристосування безперервних параметрів, зокрема методів на основі градієнта, але не дуже про пристосування дискретних параметрів. Які зазвичай використовуються алгоритми / методи MCMC для встановлення дискретних параметрів? Чи є алгоритми, які є досить загальними і досить потужними? Чи є алгоритми, які добре справляються з прокляттям розмірності? Наприклад, …
19 bayesian  mcmc 

3
Чи справді байєсівська статистика є поліпшенням порівняно з традиційною (частою) статистикою для поведінкових досліджень?
Під час відвідування конференцій прихильники байєсівської статистики мали певний поштовх для оцінки результатів експериментів. Він оцінюється як більш чутливий, відповідний та вибірковий щодо справжніх висновків (менше помилкових позитивних результатів), ніж частофілістська статистика. Я дещо дослідив цю тему, і поки що я не переконаний у користі використання байєсівської статистики. Байесівські аналізи …

5
Що означає "ймовірність визначена лише до мультиплікативної константи пропорційності"?
Я читаю документ, де автори ведуть з обговорення максимальної оцінки ймовірності до теореми Байєса, нібито як вступу для початківців. Як імовірний приклад, вони починаються з біноміального розподілу: p(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,\theta) = \binom{n}{x}\theta^x(1-\theta)^{n-x} а потім запишіть обидві сторони ℓ(θ|x,n)=xln(θ)+(n−x)ln(1−θ)ℓ(θ|x,n)=xln⁡(θ)+(n−x)ln⁡(1−θ)\ell(\theta|x, n) = x \ln (\theta) + (n-x)\ln (1-\theta) з обґрунтуванням, що: "Оскільки ймовірність визначається …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.