Запитання з тегом «conditional-probability»

Ймовірність того, що подія A відбудеться, коли інша подія B, як відомо, сталася або сталася. Його зазвичай позначають P (A | B).

4
Які правильні значення для точності та відкликання у кращих випадках?
Точність визначається як: p = true positives / (true positives + false positives) Чи правильно, що як true positivesі false positivesпідхід 0, точність наближається до 1? Те саме запитання для відкликання: r = true positives / (true positives + false negatives) Зараз я впроваджую статистичний тест, де мені потрібно обчислити …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

3
Чому в теорезі Байєса необхідний нормуючий фактор?
Теорема Байєса йде P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Це все добре. Але я десь читав: В основному P (дані) - це не що інше, як нормалізуюча константа, тобто константа, яка змушує задню щільність інтегруватися в одну. Ми знаємо, що і . 0≤P(model)≤10≤P(model)≤10 \leq P(\textrm{model}) \leq 10≤P(data|model)≤10≤P(data|model)≤1 0 \leq P(\textrm{data}|\textrm{model}) …

3
Інтуїція для умовного очікування
Нехай - простір ймовірностей, заданий випадковою змінною і -algebra ми можемо побудувати нову випадкову змінну , що є умовним очікуванням.( Ω , F , μ ) ξ : Ω → R σ G ⊆ F E [ ξ | G ](Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ:Ω→R\xi:\Omega \to \mathbb{R}σ\sigmaG⊆F\mathscr{G}\subseteq \mathscr{F}E[ξ|G]E[\xi|\mathscr{G}] Яка саме інтуїція думати про ? …

4
Проблема з доведенням умовного очікування як найкращого прогноктора
У мене є проблема з доказом E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] які дуже ймовірно виявляють глибше нерозуміння очікувань та умовних очікувань. Я знаю, що я знаю, такий доказ (іншу версію цього доказу можна знайти тут ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ = &\arg \min_{g(X)} E \Big[ \big(Y …

3
Як можна обчислити умовну ймовірність кількох подій?
Чи можете ви мені повідомити, як я можу обчислити умовну ймовірність кількох подій? наприклад: P (A | B, C, D) -? Я знаю це: P (A | B) = P (A B) / P (B)∩∩\cap Але, на жаль, я не можу знайти жодної формули, якщо подія A залежить від кількох …

3
Чи може бути задня ймовірність> 1?
У формулі Байєса: P(x|a)=P(a|x)P(x)P(a)P(x|a)=P(a|x)P(x)P(a)P(x|a) = \frac{P(a|x) P(x)}{P(a)} чи може задня ймовірність перевищувати 1?P(x|a)P(x|a)P(x|a) Я думаю, що це можливо, якщо, припустимо, що , і , і . Але я не впевнений у цьому, бо що це означало б, щоб ймовірність була більшою за одиницю?0&lt;P(a)&lt;10&lt;P(a)&lt;10 < P(a) < 1P(a)&lt;P(x)&lt;1P(a)&lt;P(x)&lt;1P(a) < P(x) < …

1
моделювання випадкових вибірок із заданим MLE
Це перехресне підтверджене запитання про моделювання вибірки, що обумовлює наявність фіксованої суми, нагадало мені проблему, яку поставив мені Джордж Казелла . f(x|θ)f(x|θ)f(x|\theta)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θθ\thetaθ^(x1,…,xn)=argmin∑i=1nlogf(xi|θ)θ^(x1,…,xn)=arg⁡min∑i=1nlog⁡f(xi|θ)\hat{\theta}(x_1,\ldots,x_n)=\arg\min \sum_{i=1}^n \log f(x_i|\theta)θθ\theta(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θ^(X1,…,Xn)θ^(X1,…,Xn)\hat{\theta}(X_1,\ldots,X_n) Наприклад, візьміть розподіл з параметром розташування , щільність якого Якщо як ми можемо імітувати умовно на ? У цьому прикладі розподіл не має виразу закритої …

1
Як мені подумки боротися з парадоксом Бореля?
Я відчуваю себе трохи непросто з тим, як я подумки мав справу з парадоксом Бореля та іншими пов'язаними з ними "парадоксами", що стосуються умовної ймовірності. Для тих, хто читає це, які не знайомі з цим, дивіться це посилання . Моя психічна реакція до цього моменту полягала в тому, щоб зважати …

1
Інтуїтивне пояснення внеску в суму двох нормально розподілених випадкових величин
Якщо у мене є дві нормально розподілені незалежні випадкові величини XXX і YYY із значеннями μXμX\mu_X і μYμY\mu_Y та стандартними відхиленнями σXσX\sigma_X і σYσY\sigma_Y і я виявляю, що X+Y=cX+Y=cX+Y=c , то (припускаючи, що я не допустив жодних помилок) умовний розподіл з XXX і YYY заданих ccc , також зазвичай розподіляються …


4
Як розвинути інтуїцію за умовною ймовірністю?
У відео лекціях з Гарвардської статистики 110: Курс ймовірності, який можна знайти на iTunes та YouTube, я зіткнувся з цією проблемою. Я спробував узагальнити це тут: Припустимо, нам подають випадкову руку з двома картками зі стандартної колоди. Яка ймовірність того, що обидві карти є тузами, враховуючи, що у нас є …


6
Більш важлива статистика: "90 відсотків усіх жінок вижили" або "90 відсотків усіх тих, хто вижив, були жінки"?
Розглянемо наступні твердження про Титанік: Припущення 1: На кораблі були лише чоловіки та жінки Припущення 2: Була велика кількість чоловіків, а також жінок Заява 1: 90 відсотків усіх жінок вижили Заява 2: 90 відсотків усіх, хто вижив, були жінками Перший вказує на те, що врятування жінок, ймовірно, було пріоритетним (незалежно …

1
Теорема Байєса з множинними умовами
Я не розумію, як було отримано це рівняння. P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} Це рівняння було виведене з статті "Проба з імовірністю", де в якості прикладу була подана справа О. Я. Сімпсона. Підсудного засуджено за подвійне вбивство та проти нього введено два докази. M1M1M_{1} - це випадок, коли кров підсудного …

3
Умовна ймовірність безперервної змінної
Припустимо, що випадкова величина слідує за безперервним рівномірним розподілом з параметрами 0 і 10 (тобто )U ∼ U ( 0 , 10 )UUUU∼U(0,10)U∼U(0,10)U \sim \rm{U}(0,10) Тепер позначимо A подію, що = 5 і B подія, що дорівнює або або 6. За моїм розумінням, обидві події мають нульову ймовірність.U 5UUUUUU555 Тепер, …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.