Запитання з тегом «conjugate-prior»

Попередній розподіл у байєсівській статистиці такий, що в поєднанні з вірогідністю результуючий задній є з того ж сімейства розподілів.



4
Чи може хтось пояснити сполучені пріори найпростішими можливими термінами?
Я деякий час намагався зрозуміти ідею кон'югованих пріорів у байєсівській статистиці, але просто не розумію. Чи може хтось пояснити цю ідею найпростішими можливими термінами, можливо, використовуючи "приклад Гаусса" як приклад?

3
Маючи сполучник перед: Глибока властивість чи математична аварія?
Деякі дистрибутиви мають сполучені пріори, а деякі -. Це розрізнення лише випадковість? Тобто ви займаєтесь математикою, і це працює так чи інакше, але це насправді не говорить вам нічого важливого про розподіл, крім самого факту? Або наявність чи відсутність сполучників попередньо відображає якусь глибшу властивість розподілу? Чи поділяються дистрибутиви зі …

3
Оновлення байесів з новими даними
Як ми можемо обчислити задню частину з попередньою N ~ (a, b) після дотримання n точок даних? Я припускаю, що ми повинні обчислити середню вибірку та дисперсію точок даних і зробити якийсь розрахунок, який поєднує задній з попереднім, але я не зовсім впевнений, як виглядає формула комбінації.

1
Чи існує сполучник до розподілу Лапласа?
Чи існує сполучник до розподілу Лапласа ? Якщо ні, то чи відомий вираз закритої форми, який наближає до заднього для параметрів розподілу Лапласа? Я гуляв досить багато, не маючи успіху, тому моє теперішнє здогадка "ні" на вищезазначені питання ...

2
Обґрунтування попереднього сполучення?
Окрім зручності використання, чи є епістемічне обґрунтування (математичне, філософське, евристичне тощо) використання сполучених пріорів? Або це здебільшого просто те, що зазвичай це досить гарне наближення та робить речі набагато простішими?

2
Які параметри задньої частини Вішарта-Вішарта?
При виведенні матриці точності ΛΛ\boldsymbol{\Lambda} нормального розподілу, що використовується для генерування NNN D-розмірних векторів x1,..,xNx1,..,xN\mathbf{x_1},..,\mathbf{x_N} xi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} \mathbf{x_i} &\sim \mathcal{N}(\boldsymbol{\mu, \Lambda^{-1}}) \\ \end{align} ми зазвичай ставимо Wishart перед ΛΛ\boldsymbol{\Lambda} оскільки розподіл Wishart є кон'югатом до точність багатоваріантного нормального розподілу з відомою середньою і невідомою дисперсією: Λ∼W(υ,Λ0)Λ∼W(υ,Λ0)\begin{align} \mathbf{\Lambda} &\sim \mathcal{W}(\upsilon, \boldsymbol{\Lambda_0}) \\ …

2
Оцінювач Байєса несприйнятливий до вибору зміщення
Чи оцінювачі Байєса несприйнятливі до зміщення відбору? Більшість статей, в яких обговорюється оцінка високої розмірності, наприклад, дані про цілі послідовності геномів, часто порушують питання зміщення селекції. Відхилення відбору випливають з того, що, хоча у нас є тисячі потенційних прогнозів, буде вибрано лише декілька, і на декількох вибраних буде зроблено висновок. …

3
Розуміння бета-кон'югату попереднього в байєсівському висновку про частоту
Далі - уривок із вступу Болстада до байєсівської статистики . Для всіх вас, фахівців, це може бути тривіально, але я не розумію, як автор робить висновок, що нам не потрібно робити ніякої інтеграції, щоб обчислити задню ймовірність деякого значення . Я розумію, другий вираз - пропорційність і звідки походять усі …

1
Яка модель глибокого навчання може класифікувати категорії, які не є взаємовиключними
Приклади: у мене є речення в описі посади: "Старший інженер Java у Великобританії". Я хочу використовувати модель глибокого навчання, щоб передбачити її як 2 категорії: English і IT jobs. Якщо я використовую традиційну модель класифікації, вона може передбачити лише 1 мітку з softmaxфункцією на останньому шарі. Таким чином, я можу …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.