Запитання з тегом «bayesian»

Байєсівський висновок - це метод статистичного висновку, який спирається на трактування параметрів моделі як випадкових змінних і застосування теореми Байєса для виведення суб'єктивних тверджень про ймовірність щодо параметрів або гіпотез, що залежать від спостережуваного набору даних.

2
Чи правда, що байєсцям не потрібні тестові набори?
Нещодавно я спостерігав за цим розмовою Еріка Дж. Ма і перевіряв його запис у блозі , де він цитує Радфорда Ніла, що байєсські моделі не надмірно (але вони можуть переповнювати ), і при їх використанні нам не потрібні тестові набори для їх перевірки (для мені здається, що цитати, швидше, говорять …

2
Чи є властивість інваріантності оцінювача ML безглуздою з байєсівської точки зору?
Казелла та Бергер констатують властивість інваріантності оцінювача ML таким чином: Однак мені здається, що вони визначають "ймовірність" ηη\eta повністю ad ​​hoc та безглуздо: Якщо я застосую основні правила теорії ймовірностей до простого випадку η=τ(θ)=θ2η=τ(θ)=θ2\eta=\tau(\theta)=\theta^2, Я натомість отримую наступне: L ( η| x)=p(x |θ2= η) = p ( x | θ …

1
Чому достовірний інтервал Байєса в цій поліноміальній регресії зміщений, тоді як інтервал довіри правильний?
Розглянемо сюжет нижче, в якому я моделював дані наступним чином. Ми дивимось на двійковий результат для якого справжня ймовірність дорівнює 1 позначена чорною лінією. Функціональний взаємозв'язок між коваріатним і p (y_ {obs} = 1 | x) - поліном 3-го порядку з логістичним зв’язком (тому він є нелінійним у подвійному напрямку).уo …

1
Яка модель глибокого навчання може класифікувати категорії, які не є взаємовиключними
Приклади: у мене є речення в описі посади: "Старший інженер Java у Великобританії". Я хочу використовувати модель глибокого навчання, щоб передбачити її як 2 категорії: English і IT jobs. Якщо я використовую традиційну модель класифікації, вона може передбачити лише 1 мітку з softmaxфункцією на останньому шарі. Таким чином, я можу …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

6
Використання p-значення для обчислення вірогідності гіпотези; що ще потрібно?
Питання: Одне поширене нерозуміння p-значень полягає в тому, що вони представляють вірогідність того, що нульова гіпотеза є істинною. Я знаю, що це неправильно, і я знаю, що значення p представляють лише ймовірність знаходження вибірки настільки екстремальної, як ця, враховуючи, що нульова гіпотеза є істинною. Однак, інтуїтивно, треба мати можливість вивести …

1
Сумніви щодо виведення рівнянь регресії Гаусса в рефераті
Я читаю цей передруковий документ , і у мене виникають труднощі після їх виведення рівнянь для регресії Гаусса. Вони використовують налаштування та позначення Расмуссена та Вільямса . Таким чином, адитивний, нульовий середній, стаціонарний і нормально розподілений шум з дисперсієюσ2noiseσnoise2\sigma^2_{noise} передбачається: y=f(x)+ϵ,ϵ∼N(0,σ2noise)y=f(x)+ϵ,ϵ∼N(0,σnoise2)y=f(\mathbf{x})+\epsilon, \quad \epsilon\sim N(0,\sigma^2_{noise}) Передбачається GP-попередник із нульовим середнім значенням …

2
Застосування стохастичного варіативного умовиводу до Байєсової суміші Гаусса
Я намагаюся реалізувати модель Гауссової суміші зі стохастичними варіаційними висновками, слідуючи цій роботі . Це пгм суміші Гаусса. Згідно з документом, повний алгоритм стохастичного варіаційного висновку: І я все ще дуже плутаю метод масштабування його до GMM. По-перше, я подумав, що локальний параметр - це просто а інші - все …

1
Приклад того, як Баєсова статистика може оцінити параметри, які дуже складно оцінити за допомогою частотистських методів
Байєсівські статистики стверджують, що "Байєсова статистика може оцінити параметри, які дуже складно оцінити за допомогою частотистських методів". Чи йдеться про те, що цитата, взята з цієї документації SAS, це те саме? Він надає умовиводи, які є умовними для даних і точні, без опори на асимптотичне наближення. Невеликий висновок вибірки проходить …

1
Інтелектуальне виявлення точки зміни Байєса (граничний прогнозний розподіл)
Я читаю документ про виявлення змін Байєса в Інтернеті від Адама та Маккея ( посилання ). Автори починають із написання граничного прогнозного розподілу: деП(хt + 1|х1 : т) =∑rтП(хт+ 1|rт,х( r)т)П(rт|х1 : т)( 1 )P(xt+1|x1:t)=∑rtP(xt+1|rt,xt(r))P(rt|x1:t)(1) P(x_{t+1} | \textbf{x}_{1:t}) = \sum_{r_t} P(x_{t+1} | r_t, \textbf{x}_t^{(r)}) P(r_t | \textbf{x}_{1:t}) \qquad \qquad (1) …

3
Коли (і чому) баєси відкидають чинні байєсівські методи? [зачинено]
Закрито . Це питання потребує деталей або ясності . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Додайте деталі та уточніть проблему, відредагувавши цю публікацію . Закрито 3 роки тому . З того, що я прочитав, і з відповідей на інші запитання, які я тут задав, багато так званих частістських …

1
Що означає інтегрувати через випадкову міру?
Я зараз переглядаю статтю моделі випадкових ефектів процесу Діріхле, і специфікація моделі така: уiψiГ=Хiβ+ψi+ϵi∼ Г∼ D P( α ,Г0)уi=Хiβ+ψi+ϵiψi∼ГГ∼DП(α,Г0) \begin{align*}y_{i} &= X_{i}\beta + \psi_{i} + \epsilon_{i}\\ \psi_{i} &\sim G \\ G &\sim \mathcal{DP}\left(\alpha, G_{0}\right) \end{align*} де αα\alpha - параметр масштабу і Г0Г0G_{0}є базовим заходом. Згодом у статті пропонується інтегрувати функцію …

2
Порівняння між оцінками Байєса
Розглянемо квадратичну втрату , з попередньо заданим де . Нехай ймовірність. Знайдіть оцінку Байєса .L(θ,δ)=(θ−δ)2L(θ,δ)=(θ−δ)2L(\theta,\delta)=(\theta-\delta)^2π(θ)π(θ)\pi(\theta)π(θ)∼U(0,1/2)π(θ)∼U(0,1/2)\pi(\theta)\sim U(0,1/2)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπδπ\delta^\pi Розглянемо зважені квадратичні втрати де з попереднім . Нехай - вірогідність. Знайдіть оцінку Байєса .Lw(θ,δ)=w(θ)(θ−δ)2Lw(θ,δ)=w(θ)(θ−δ)2L_w(\theta,\delta)=w(\theta)(\theta-\delta)^2w(θ)=I(−∞,1/2)w(θ)=I(−∞,1/2)w(\theta)=\mathbb{I}_{(-\infty,1/2)}π1(θ)=I[0,1](θ)π1(θ)=I[0,1](θ)\pi_1(\theta)=\mathbb{I}_{[0,1]}(\theta)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπ1δ1π\delta^\pi_1 Порівняйте іδπδπ\delta^\piδπ1δ1π\delta^\pi_1 Спочатку я помітив, що , і я припустив, що така ймовірність, інакше я …

2
Довідка в очікуванні Максимізація з паперу: як включити попередній розподіл?
Питання грунтується на роботі під назвою: Реконструкція зображення в дифузній оптичній томографії за допомогою зв'язаної моделі радіаційного транспорту-дифузії. Посилання для завантаження Автори застосовують алгоритм ЕМ з регуляризацією розрідженості невідомого вектораl1l1l_1μμ\muдля оцінки пікселів зображення. Модель задана y=Aμ+e(1)(1)y=Aμ+ey=A\mu + e \tag{1} Оцінка наведена у рівнянні (8) як μ^=argmaxlnp(y|μ)+γlnp(μ)(2)(2)μ^=arg⁡maxln⁡p(y|μ)+γln⁡p(μ)\hat{\mu} = \arg max {\ln …

1
Як можна формалізувати попередній розподіл ймовірностей? Чи є правила, які слід використовувати?
Хоча мені подобається думати, що я добре розумію концепцію попередньої інформації в байєсівському статистичному аналізі та прийнятті рішень, у мене часто виникають проблеми з обгортанням голови навколо її застосування. Я маю на увазі пару ситуацій, які є прикладом моєї боротьби, і я вважаю, що вони не належним чином розглядаються в …

1
Скільки сторін має штамп? Байєсівські умовиводи в JAGS
Проблема Я хотів би зробити якийсь висновок у системі, аналогічній тому, щоб померти з невідомою кількістю сторін. Штамп прокочується кілька разів, після чого я хотів би зробити розподіл ймовірності за параметром, відповідним кількості сторін, що має штамб, θ. Інтуїція Якщо після 40 рулонів ви спостерігали 10 червоних, 10 блюзових, 10 …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.