Запитання з тегом «prior»

У статистиці Байєса попередній розподіл формалізує інформацію чи знання (часто суб'єктивні), доступні до того, як вибірка буде розглянута, у вигляді розподілу ймовірностей. Розподіл із великим розповсюдженням використовується, коли про параметри (и) відомо мало, тоді як більш вузький попередній розподіл представляє більшу ступінь інформації.

4
Як Баєсівська статистика поводиться з відсутністю пріорів?
Це питання було натхнене двома останніми взаємодіями, які я мав, одна тут у резюме , а інша на економ.се. Там, я відправив відповідь на відомий «Конверт парадоксу» (зауважте, не як на «правильну відповідь» , але в якості відповіді , що випливають з конкретних припущень про структуру ситуації). Через деякий час …

2
Які попередні розподіли могли / повинні бути використані для дисперсії в ієрархічній байєсанській моделі, коли середня дисперсія представляє інтерес?
У своїй широко цитованій статті Попередні розподіли щодо параметрів дисперсії в ієрархічних моделях (916 цитування до цих пір в Google Академія) Гельман пропонує, що хорошими неінформативними попередніми розподілами для дисперсії в ієрархічній баєсовій моделі є рівномірний розподіл і розподіл на пів t. Якщо я правильно розумію, це працює добре, коли …

2
Регресія хребта - байєсова інтерпретація
Я чув, що регресія хребта може бути отримана як середнє значення заднього розподілу, якщо попередній адекватно обраний. Чи є інтуїція, що обмеження, встановлені на коефіцієнти регресії за попередніми (наприклад, стандартні нормальні розподіли навколо 0), ідентичні / замінюють штраф, встановлений на квадратному розмірі коефіцієнтів? Чи повинен попередній бути гауссом, щоб дотримуватися …

3
Чому ніхто не використовує байєсовський багаточленний класичний наївний Байєс?
Так, у (непідконтрольному) текстовому моделюванні, латентне розподілення Діріхле (LDA) є баєсовою версією ймовірнісного латентного семантичного аналізу (PLSA). По суті, LDA = PLSA + Діріхле перед своїми параметрами. Я розумію, що LDA тепер є контрольним алгоритмом і реалізується в різних пакетах, тоді як PLSA більше не слід використовувати. Але в (під …

1
Яка інтуїція за обмінними зразками під нульовою гіпотезою?
Перестановочні тести (також називаються тестом рандомизації, тестом на повторну рандомізацію або точним тестом) дуже корисні і корисні, коли припущення про нормальний розподіл, необхідне, наприклад, t-testне виконується, і при перетворенні значень за ранжуванням непараметричний тест, як-от Mann-Whitney-U-test, призведе до втрати більше інформації. Однак одне і єдине припущення не слід оминути увагою …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
Плоскі, кон'юговані та гіперприори. Хто вони?
В даний час я читаю про Байєсові методи в обчислювальній молекулярній еволюції Ян. У розділі 5.2 мова йде про пріори, зокрема про неінформативні / плоскі / розпливчасті / дифузні, сполучені та гіперприори. Це може бути запитання про надмірне спрощення, але чи може хтось просто пояснити різницю між цими видами пріорів …
15 bayesian  prior 

2
Параметри без визначених пріорів у Стен
Я тільки почав вчитися користуватися Стен і rstan. Якщо я завжди не плутався з тим, як працюють JAGS / BUGS, я вважав, що вам завжди потрібно визначити попередній розподіл для кожного параметра в моделі, з якої слід виводитись. Схоже, вам не доведеться робити цього в Стен на основі його документації. …

2
Що таке хороший попередній розподіл на ступінь свободи при розподілі?
Я хочу використовувати при розподілі для моделювання коротких інтервальних повернень активів у байєсовій моделі. Я хотів би оцінити обидва ступені свободи (разом з іншими параметрами в моїй моделі) для розподілу. Я знаю, що віддача активів є зовсім ненормальною, але я не знаю занадто багато того. Який відповідний, м'яко інформативний попередній …

1
Джеффріс для кількох параметрів
У певних випадках Джефріс до повної багатовимірної моделі в цілому вважається неадекватним, це, наприклад, у випадку: (де ε ∼ N ( 0 , σ 2 ) , з µ і σ невідомо), де кращим є наступний пріоритет (до повного Джеффрі до π ( μ , σ ) ∝ σ - …

2
Здійснення байєсів до результатів, що часто виникають
Як слід рухатись до перетворення частотистського результату в байєсівський пріоритет? Розглянемо наступний досить загальний сценарій: Експеримент проводився в минулому, і було виміряно результат за деяким параметром . Аналіз робився за допомогою частотистської методології. В результатах задається інтервал довіри для .ϕϕϕ\phiϕϕ\phi Зараз я провожу новий експеримент, де я хочу виміряти деякі …

2
Ви спостерігаєте за k головами з n кидок. Монета справедлива?
Мене в інтерв'ю мені задали це запитання з . Чи є "правильна" відповідь?( n , k ) = ( 400 , 220 )(n,k)=(400,220)(n, k) = (400, 220) Припустимо, що кидки є iid, а ймовірність голів . Тоді розподіл кількості голів у 400 кидках повинен бути близьким до нормального (200, 10 …

1
Коли я повинен турбуватися про парадокс Джеффріс-Ліндлі у виборі моделі Байесія?
Я розглядаю великий (але кінцевий) простір моделей різної складності, які я досліджую за допомогою RJMCMC . Попередній вектор параметрів для кожної моделі є досить інформативним. У яких випадках (якщо такі є) я повинен турбуватися через парадокс Джеффріс-Ліндлі, який надає перевагу більш простим моделям, коли одна з більш складних моделей буде …

3
Джеффріс до нормального розподілу з невідомим середнім значенням та дисперсією
Я читаю попередні розподіли, і я раніше підраховував Джеффрі для вибірки нормально розподілених випадкових величин з невідомою середньою та невідомою дисперсією. Згідно з моїми підрахунками, для Jeffreys раніше було застосовано: Ось, інформаційна матриця Фішера.Яp ( μ , σ2) = dе т ( я)-----√= de t ( 1 / σ2001 / …

1
Чому LKJcorr є гарним пріоритетом для кореляційної матриці?
Я читаю розділ 13 "Пригоди в коваріації" у ( чудовій ) книзі " Статистичне переосмислення " Річарда МакЛарета, де він подає таку ієрархічну модель: ( Rє кореляційною матрицею) Автор пояснює, що LKJcorrце слабоінформативний характер, який працює як регуляризуючий попередній для кореляційної матриці. Але чому це так? Які характеристики LKJcorrмає розподіл, …

2
Чи може належна попередня і експонентована ймовірність призвести до неправильної задньої?
(Це питання натхнене цим коментарем від Сіаня .) Добре відомо, що якщо правильний попередній розподіл π(θ)π(θ)\pi(\theta) і чітко визначена ймовірність L(θ|x)L(θ|x)L(\theta | x) , то задній розподіл π(θ|x)∝π(θ)L(θ|x)π(θ|x)∝π(θ)L(θ|x)\pi(\theta|x)\propto \pi(\theta) L(\theta|x) є належним майже напевно. У деяких випадках ми використовуємо натомість загартовану або експоненційну ймовірність, що призводить до псевдо-задньої π~(θ|x)∝π(θ)L(θ|x)απ~(θ|x)∝π(θ)L(θ|x)α\tilde\pi(\theta|x)\propto \pi(\theta) …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.