Запитання з тегом «likelihood»

Дано випадкову змінну Xякі виникають при параметризованому розподілі , ймовірність визначається як вірогідність спостережуваних даних як функціяF(X;θ)θ:L(θ)=P(θ;X=x)

10
Яка різниця між "вірогідністю" та "ймовірністю"?
Сторінка вікіпедії стверджує, що вірогідність та ймовірність є різними поняттями. Нетехнологічно кажучи, "ймовірність" зазвичай є синонімом "ймовірності", але при статистичному використанні чітке розмежування в перспективі: число, яке є ймовірністю деяких спостережуваних результатів, що дається набором значень параметрів, вважається як вірогідність набору значень параметрів з урахуванням спостережуваних результатів. Чи може хтось …

3
Приклад: регресія LASSO з використанням glmnet для двійкового результату
Я починаю балуватися з використанням glmnetз LASSO регресією , де мій результат становить інтерес дихотомический. Я створив невеликий макетний кадр даних нижче: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


4
Чому ми мінімізуємо негативну ймовірність, якщо вона еквівалентна максимізації ймовірності?
Це питання мене спантеличувало вже давно. Я розумію використання 'log' для максимізації ймовірності, тому не запитую про «log». Моє запитання таке: оскільки максимізація ймовірності журналу рівнозначна мінімізації "негативної ймовірності журналу" (NLL), чому ми винайшли цю NLL? Чому ми не використовуємо "позитивну ймовірність" весь час? За яких обставин надається перевага NLL? …

7
Чому хтось використовує байєсівський підхід із "неінформативним" невідповідним замість класичного підходу?
Якщо інтерес полягає лише у оцінці параметрів моделі (точкове та / або інтервальне оцінювання) і попередня інформація не є достовірною, слабкою (я знаю, це трохи розпливчасто, але я намагаюся встановити сценарій, коли вибір вибору перед цим важко) ... Чому хтось вирішить використовувати байєсівський підхід із "неінформативними" неналежними пріорами замість класичного …

9
Чому люди використовують p-значення замість обчислення ймовірності моделі даних?
Грубо кажучи, р-значення дає ймовірність спостережуваного результату експерименту з урахуванням гіпотези (моделі). Маючи цю ймовірність (p-значення), ми хочемо судити про нашу гіпотезу (наскільки це ймовірно). Але хіба не було б природніше обчислити ймовірність гіпотези з огляду на спостережуваний результат? Більш детально. У нас є монета. Ми перевертаємо це 20 разів …

3
Як жорстко визначити ймовірність?
Ймовірність може бути визначена кількома способами, наприклад: функція від яка відображає на тобто .L ( θ , x ) L ( θ ∣ x ) L : Θ × X → RLLΘ × XΘ×X\Theta\times{\cal X}(θ,x)(\theta,x)L(θ∣x)L(\theta \mid x)L:Θ×X→RL:\Theta\times{\cal X} \rightarrow \mathbb{R} випадкова функціяL ( ⋅ ∣ X )L(⋅∣X)L(\cdot \mid X) ми …

3
Що це за інформація про Фішера?
Припустимо, у нас є випадкова величина . Якщо були істинним параметром, функцію вірогідності слід максимізувати, а похідну дорівнює нулю. Це основний принцип, що стоїть за оцінкою максимальної ймовірності.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Як я розумію, інформація про Фішера визначається як I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) = \Bbb E \Bigg[\left(\frac{\partial}{\partial \theta}f(X|\theta)\right)^2\Bigg ] Таким чином, якщо - істинний …

3
Які є наочні програми емпіричної вірогідності?
Я чув про емпіричну ймовірність Оуена, але до недавнього часу не звертав на це уваги, поки я не натрапив на нього в цікавій роботі ( Mengersen et al. 2012 ). зрозуміти це, я зрозумів, що ймовірність спостережуваних даних представлена ​​як , де і .L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L = \prod_i p_i = \prod_i P(X_i=x) …

5
Запис у Вікіпедії про ймовірність видається неоднозначним
У мене є просте запитання щодо "умовної ймовірності" та "ймовірності". (Я вже опитував це питання тут, але безрезультатно.) Він починається зі сторінки Вікіпедії, за якоюсь вірогідністю . Вони говорять так: Імовірність набору значень параметрів, , з урахуванням результатів , дорівнює ймовірністю спостережуваних результатів цих даними тих значень параметрів, тобтоxθθ\thetaxxx L(θ∣x)=P(x∣θ)L(θ∣x)=P(x∣θ)\mathcal{L}(\theta …

1
Розрахунок граничної ймовірності зразків MCMC
Це питання, що повторюється (див. Цю публікацію , цю публікацію та цю публікацію ), але у мене інший виток. Припустимо, у мене є купа зразків із загального пробовідбору MCMC. Для кожного зразка я знаю значення ймовірності журналу та журналу попереднього . Якщо це допомагає, я також знаю значення ймовірності журналу …

5
Інтуїція теореми Байєса
Я намагався розвинути на основі інтуїції розуміння теореми Байєса з точки зору попередньої , задньої , вірогідності та граничної ймовірності. Для цього я використовую таке рівняння: де являє собою гіпотезу чи переконання, а являє собою дані чи докази. Я зрозумів поняття заднього - це об'єднавча сутність, яка поєднує попередню віру …

3
Чи є якась різниця між частотологом і байесівським щодо визначення ймовірності?
Деякі джерела кажуть, що ймовірність функції не є умовною ймовірністю, деякі кажуть, що вона є. Це дуже бентежить мене. Згідно з більшістю джерел, які я бачив, вірогідність розподілу з параметром θθ\theta повинна бути добутком функцій масової ймовірності, заданих nnn зразками xixix_i : L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) Наприклад, у …

1
Перетворення (нормалізація) дуже малих значень ймовірності у ймовірність
Я пишу алгоритм, де, задаючи модель, я обчислюю ймовірність списку наборів даних, а потім потрібно нормалізувати (до ймовірності) кожного з вірогідних. Тож щось на зразок [0,00043, 0,00004, 0,00321] може бути перетворене на таке, як [0,2, 0,03, 0,77]. Моя проблема полягає в тому, що ймовірність журналу, з якою я працюю, зовсім …

6
Задні дуже відрізняються від попереднього та ймовірного
Якщо пріоритет і ймовірність сильно відрізняються один від одного, то іноді виникає ситуація, коли задній не схожий ні на один. Дивіться, наприклад, цю картинку, яка використовує звичайні розподіли. Хоча це математично правильно, це, схоже, не відповідає моїй інтуїції - якщо дані не збігаються з моїми твердими переконаннями або даними, я …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.