Запитання з тегом «bayesian»

Байєсівський висновок - це метод статистичного висновку, який спирається на трактування параметрів моделі як випадкових змінних і застосування теореми Байєса для виведення суб'єктивних тверджень про ймовірність щодо параметрів або гіпотез, що залежать від спостережуваного набору даних.

3
Які є наочні програми емпіричної вірогідності?
Я чув про емпіричну ймовірність Оуена, але до недавнього часу не звертав на це уваги, поки я не натрапив на нього в цікавій роботі ( Mengersen et al. 2012 ). зрозуміти це, я зрозумів, що ймовірність спостережуваних даних представлена ​​як , де і .L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L = \prod_i p_i = \prod_i P(X_i=x) …

1
Обчислювальна повторюваність ефектів від lmer-моделі
Я щойно натрапив на цю статтю , в якій описано, як обчислити повторюваність (він же - надійність, також внутрішньокласова кореляція) вимірювання за допомогою моделювання змішаних ефектів. R-код буде: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 



3
Чому пріори Джефріса вважаються неінформативними?
Розглянемо попередній Джеффрі, де , де - інформація про Фішера.p(θ)∝|i(θ)|−−−−√p(θ)∝|i(θ)|p(\theta) \propto \sqrt{|i(\theta)|}iii Я продовжую бачити це, коли його згадували як неінформативне попереднє, але я ніколи не бачив аргументу, чому він неінформативний. Зрештою, це не є постійним попереднім, тому має бути якийсь інший аргумент. Я розумію, що це не залежить від …
27 bayesian  prior 

5
Чи розпливчасте попереднє те саме, що і попереднє неінформативне?
Це питання щодо термінології. Чи "попередній розпливчастий пріоритет" такий самий, як попередній неінформативний характер, чи є якась різниця між ними? Моє враження, що вони однакові (від пошуку розпливчастих та неінформативних разом), але я не можу бути впевненим.

2
Чому покарання за Лассо еквівалентно подвійній експоненції (Лапласу)?
Я читав у ряді посилань, що оцінка Лассо для вектора параметра регресії ББB еквівалентна задньому режиму ББB в якому попередній розподіл для кожного БiБiB_i є подвійним експоненціальним розподілом (також відомим як розподіл Лапласа). Я намагався це довести, чи може хтось деталізувати деталі?

3
Яке байєсівське обґрунтування привілейованих аналізів, проведених раніше, ніж інші аналізи?
Передумови та емпіричний приклад У мене два дослідження; Я провів експеримент (дослідження 1), а потім повторив його (дослідження 2). У дослідженні 1 я виявив взаємодію між двома змінними; У дослідженні 2 ця взаємодія була в тому ж напрямку, але не суттєвою. Ось підсумок моделі дослідження 1: Coefficients: Estimate Std. Error …
26 bayesian 

2
Що саме є альфа в дистрибуті Діріхле?
Я досить новачок у байєсівській статистиці, і я натрапив на виправлену кореляційну міру, SparCC , яка використовує процес Діріхле у підставці його алгоритму. Я намагався пройти алгоритм поетапно, щоб зрозуміти, що відбувається, але я не впевнений, що саме робить alphaвекторний параметр при розподілі Діріхле і як він нормалізує alphaвекторний параметр? …

1
Співвідношення між варіаційними Байесом та ЕМ
Я десь прочитав, що метод Варіаційного Байєса - це узагальнення алгоритму ЕМ. Дійсно, ітеративні частини алгоритмів дуже схожі. Щоб перевірити, чи алгоритм ЕМ є спеціальною версією Variational Bayes, я спробував наступне: YYY - це дані, - це збір прихованих змінних, а - параметри. У варіаційних Бейсах ми можемо зробити наближення …

5
Запис у Вікіпедії про ймовірність видається неоднозначним
У мене є просте запитання щодо "умовної ймовірності" та "ймовірності". (Я вже опитував це питання тут, але безрезультатно.) Він починається зі сторінки Вікіпедії, за якоюсь вірогідністю . Вони говорять так: Імовірність набору значень параметрів, , з урахуванням результатів , дорівнює ймовірністю спостережуваних результатів цих даними тих значень параметрів, тобтоxθθ\thetaxxx L(θ∣x)=P(x∣θ)L(θ∣x)=P(x∣θ)\mathcal{L}(\theta …

3
Чи стають байєсові пріори неактуальними при великому розмірі вибірки?
Виконуючи байєсівські умовиводи, ми працюємо, максимізуючи нашу функцію ймовірності в поєднанні з пріорами, які ми маємо про параметри. Оскільки ймовірність журналу зручніша, ми ефективно максимізуємо за допомогою MCMC або іншим способом, який генерує задні розподіли (використовуючи pdf для попередній і вірогідність кожної точки даних).∑ln(prior)+∑ln(likelihood)∑ln⁡(prior)+∑ln⁡(likelihood)\sum \ln (\text{prior}) + \sum \ln (\text{likelihood}) …
26 bayesian  prior 

7
Поєднання ймовірностей / інформації з різних джерел
Скажімо, у мене є три незалежні джерела, і кожне з них зробить прогноз погоди завтра. Перший говорить, що ймовірність дощу завтра дорівнює 0, потім другий говорить, що ймовірність дорівнює 1, і нарешті останній говорить, що ймовірність становить 50%. Я хотів би знати загальну ймовірність, враховуючи цю інформацію. Якщо застосувати теорему …

1
Рівновага між найменшими квадратами та MLE в гауссовій моделі
Я новачок у машинному навчанні та намагаюся навчитися цьому самостійно. Нещодавно я читав деякі конспекти лекцій і мав основне запитання. Слайд 13 говорить, що "Оцінка найменшої площі така ж, як Максимальна оцінка ймовірності за моделлю Гаусса". Здається, це щось просте, але я цього не бачу. Може хтось, будь ласка, пояснить, …

2
Чи правда, що байєсівські методи не переборщують?
Чи правда, що байєсівські методи не переборщують? (Я бачив деякі документи та навчальні посібники, які заявляють про це) Наприклад, якщо ми застосуємо Гауссовий процес до MNIST (рукописна класифікація), але покажемо йому єдиний зразок, чи повернеться він до попереднього розподілу для будь-яких входів, відмінних від цього єдиного зразка, як би невелика …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.