Запитання з тегом «bayesian»

Байєсівський висновок - це метод статистичного висновку, який спирається на трактування параметрів моделі як випадкових змінних і застосування теореми Байєса для виведення суб'єктивних тверджень про ймовірність щодо параметрів або гіпотез, що залежать від спостережуваного набору даних.

5
Що саме є байєсівська модель?
Чи можу я назвати модель, у якій теорема Байєса використовується "баєсовою моделлю"? Боюся, таке визначення може бути занадто широким. Отже, що саме є байєсівською моделлю?

1
Що таке задні прогнозні перевірки та що робить їх корисними?
Я розумію, що таке задній прогнозний розподіл , і я читав про задні передбачувальні перевірки , хоча мені ще не ясно, що він робить. Що саме є задній прогностичний чек? Чому деякі автори кажуть, що проведення задніх прогнозних перевірок "використовує дані двічі" і не слід ними зловживати? (або навіть, що …

8
Чи варто спочатку навчати байєсівській чи частолістській статистиці?
Я допомагаю своїм хлопцям, які зараз знаходяться в середній школі, розуміючи статистику, і я розглядаю початок з простих прикладів, не ігноруючи деякі погляди до теорії. Моєю метою було б дати їм найбільш інтуїтивний, але інструментально конструктивний підхід до вивчення статистики з нуля, щоб стимулювати їх інтерес до подальшої статистики та …

6
Якою була б надійна байєсівська модель для оцінки масштабу приблизно нормального розподілу?
Існує ряд надійних оцінювачів масштабу . Помітним прикладом є середнє абсолютне відхилення, яке відноситься до стандартного відхилення як . У байєсівській системі існує ряд способів чітко оцінити розташування приблизно нормального розподілу (скажімо, нормального зараження сторонніми людьми), наприклад, можна припустити, що дані поширюються як при розподілі, так і по розподілу Лапласа. …

5
Що довірчі інтервали говорять про точність (якщо вона є)?
Morey et al (2015) стверджують, що інтервали довіри вводять в оману і є багато ухилів, пов'язаних з їх розумінням. Серед іншого вони описують точність помилок таким чином: Точність помилок Ширина довірчого інтервалу вказує на точність наших знань про параметр. Вузькі інтервали довіри показують точні знання, тоді як широкі довірчі помилки …

3
Ентропійне спростування Байєсової стрілки назад Шадозі, парадокс часу?
У цій роботі талановитий дослідник Косма Шалізі стверджує, що для повного прийняття суб'єктивного байєсівського погляду необхідно також прийняти нефізичний результат того, що стрілка часу (дана потоком ентропії) насправді повинна йти назад . Це в основному спроба сперечатися проти максимальної ентропії / повністю суб'єктивного байєсівського погляду, висунутого та популяризованого Е.Т. Джейнес …

6
Якщо достовірний інтервал має рівний попередній рівень, чи дорівнює 95% довірчий інтервал, рівний 95% достовірному інтервалу?
Я дуже новачок у баєсівській статистиці, і це може бути дурним питанням. Тим не менш: Розглянемо достовірний інтервал з попереднім, який визначає рівномірний розподіл. Наприклад, від 0 до 1, де 0 до 1 являє собою весь спектр можливих значень ефекту. Чи в цьому випадку 95% достовірний інтервал буде дорівнює довірчому …

2
Чому ми повинні використовувати t помилки замість звичайних помилок?
У цій публікації в блозі Ендрю Гелмана є такий пасаж: Моделі Байєса 50 років тому здаються безнадійно простими (за винятком, звичайно, простих проблем), і я думаю, що байєсівські моделі сьогодні будуть здаватися безнадійно простими, 50 років тому. (Просто для простого прикладу: ми, мабуть, повинні регулярно використовувати t, а не звичайні …

5
Як боротися з ієрархічними / вкладеними даними в машинному навчанні
Я поясню свою проблему на прикладі. Припустимо, ви хочете передбачити дохід фізичної особи за деякими ознаками: {Вік, стать, країна, регіон, місто}. У вас такий навчальний набір даних train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

3
Що це за інформація про Фішера?
Припустимо, у нас є випадкова величина . Якщо були істинним параметром, функцію вірогідності слід максимізувати, а похідну дорівнює нулю. Це основний принцип, що стоїть за оцінкою максимальної ймовірності.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Як я розумію, інформація про Фішера визначається як I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) = \Bbb E \Bigg[\left(\frac{\partial}{\partial \theta}f(X|\theta)\right)^2\Bigg ] Таким чином, якщо - істинний …

2
Різниця між наївним Байєсом та багаточленним наївним Байєсом
Я раніше мав справу з класифікатором Naive Bayes . Я читав про багаточленних наївних байесах останнім часом. Також задня ймовірність = (попередня * ймовірність) / (докази) . Єдина головна різниця (програмуючи ці класифікатори), яку я виявив між Naive Bayes та Multinomial Naive Bayes, полягає в тому, що Мультиноміальний Naive Bayes …

4
R пакети для моделювання теми / LDA: просто `topicmodels` та` lda` [закрито]
Мені здається, що лише два пакети R здатні виконувати приховане розподілення Діріхле : Один є ldaавтором Джонатана Чанга; а другий topicmodelsавтор - Беттіна Грюн та Курт Горник. Які відмінності між цими двома пакетами щодо продуктивності, деталей реалізації та розширюваності?

3
R: Випадковий ліс, який кидає NaN / Inf у помилці "виклику іноземної функції", незважаючи на відсутність набору даних NaN [закритий]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закрито 2 роки тому . Я використовую caret, щоб запустити перехрещений випадковий ліс над набором даних. Змінна Y - фактор. У моєму наборі даних немає NaN, Inf …

2
Чи опублікувала статистику неправильна відповідь?
Статистика.com опублікував проблему тижня: рівень шахрайства з житловим страхуванням становить 10% (один із десяти претензій є шахрайським). Консультант запропонував систему машинного навчання для розгляду претензій та класифікації їх як шахрайства чи без шахрайства. Система на 90% ефективніше виявляє шахрайські претензії, але лише 80% ефективна в правильній класифікації заяв про не …

5
Різниця між байєсівськими мережами та процесом Маркова?
Чим відрізняється Байєсова мережа від процесу Маркова? Я вважав, що розумію принципи обох, але тепер, коли мені потрібно порівняти два, я відчуваю себе втраченим. Вони означають для мене майже те саме. Звичайно, це не так. Також вдячні посилання на інші ресурси.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.