Запитання з тегом «conditional-expectation»

Умовне очікування - це очікування випадкової величини, що задається інформацією про іншу змінну або змінні (здебільшого, шляхом визначення їх значення).

1
Підписка підписки в очікуванні
Яке точне значення підписного позначення в умовних очікуваннях в рамках теорії вимірювань? Ці підписки не відображаються у визначенні умовного очікування, але ми можемо бачити, наприклад, на цій сторінці вікіпедії . (Зауважте, що це було не завжди так, та сама сторінка кілька місяців тому).EX[f(X)]EX[f(X)]\mathbb{E}_X[f(X)] Яким має бути, наприклад, значення з X …

3
Узагальнення Закону ітераційних очікувань
Нещодавно я натрапив на цю особу: Е[ Є( Y| Х, Z) | Х] = Е[ Y| Х]E[E(Y|X,Z)|X]=E[Y|X]E \left[ E \left(Y|X,Z \right) |X \right] =E \left[Y | X \right] Я, звичайно, знайомий з більш простою версією цього правила, а саме з тим, що Е[ Є( Y| Х) ] =Е( Y)E[E(Y|X)]=E(Y)E \left[ …

3
Інтуїція для умовного очікування
Нехай - простір ймовірностей, заданий випадковою змінною і -algebra ми можемо побудувати нову випадкову змінну , що є умовним очікуванням.( Ω , F , μ ) ξ : Ω → R σ G ⊆ F E [ ξ | G ](Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ:Ω→R\xi:\Omega \to \mathbb{R}σ\sigmaG⊆F\mathscr{G}\subseteq \mathscr{F}E[ξ|G]E[\xi|\mathscr{G}] Яка саме інтуїція думати про ? …

4
Проблема з доведенням умовного очікування як найкращого прогноктора
У мене є проблема з доказом E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] які дуже ймовірно виявляють глибше нерозуміння очікувань та умовних очікувань. Я знаю, що я знаю, такий доказ (іншу версію цього доказу можна знайти тут ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ = &\arg \min_{g(X)} E \Big[ \big(Y …


1
Як мені подумки боротися з парадоксом Бореля?
Я відчуваю себе трохи непросто з тим, як я подумки мав справу з парадоксом Бореля та іншими пов'язаними з ними "парадоксами", що стосуються умовної ймовірності. Для тих, хто читає це, які не знайомі з цим, дивіться це посилання . Моя психічна реакція до цього моменту полягала в тому, щоб зважати …

4
Очікуване значення медіани вибірки з урахуванням середньої вибірки
Нехай YYY позначає медіану, а ˉ XX¯\bar{X} позначає середнє значення випадкової вибірки розміром n = 2 k + 1n=2k+1n=2k+1 з розподілу, який дорівнює N ( μ , σ 2 )N(μ,σ2)N(\mu,\sigma^2) . Як я можу обчислити ? E ( Y | ˉ X = ˉ x )E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x}) Інтуїтивно, через припущення про …

2
Закон сумарної дисперсії як теорема Піфагора
Припустимо, що і мають кінцевий другий момент. У просторі Гільберта випадкові величини з другим кінцевим моментом (із внутрішнім творомXXXYYYT1,T2T1,T2T_1,T_2 визначеним E(T1T2)E(T1T2)E(T_1T_2) , ||T||2=E(T2)||T||2=E(T2)||T||^2=E(T^2) ), ми можемо інтерпретувати E(Y|X)E(Y|X)E(Y|X) як проекція YYY на простір функцій XXX . Відомо також, що Закон сумарної варіації читає Var(Y)=E(Var(Y|X))+Var(E(Y|X))Var(Y)=E(Var(Y|X))+Var(E(Y|X))Var(Y)=E(Var(Y|X)) + Var(E(Y|X)) Чи є спосіб інтерпретувати …


2
Умовне очікування експоненціальної випадкової величини
Для випадкової змінної ( ) інтуїтивно відчуваю, що має дорівнювати оскільки за властивістю без запам'ятовування розподіл такий же, як у але зміщений праворуч на .E [ X ] = 1X∼Exp(λ)Х∼Досвід(λ)X\sim \text{Exp}(\lambda) E[X| X>x]x+E[X]X| X>xXxE[X]=1λЕ[Х]=1λ\mathbb{E}[X] = \frac{1}{\lambda}E[X|X>x]Е[Х|Х>х]\mathbb{E}[X|X > x]x+E[X]х+Е[Х]x + \mathbb{E}[X]X|X>xХ|Х>хX|X > xXХXxхx Однак я намагаюся використовувати властивість без запам'ятовування, щоб …

4
Очікуване число я буду набирати після малювання карт, поки я не отримаю туза, 2, 3 тощо
У мене виникають проблеми з вирішенням наступного. Ви малюєте карти зі стандартної колоди на 52 картки без заміни, поки не отримаєте туза. Ви отримуєте з того, що залишилося, поки не отримаєте 2. Ви продовжуєте роботу з 3. Яке очікуване число ви будете мати після закінчення всієї колоди? Це було природно …

1
Точний тест Фішера та гіпергеометричне поширення
Я хотів краще зрозуміти точний тест Фішера, тому я розробив наступний іграшковий приклад, де f і m відповідає чоловічому та жіночому, а n і y відповідає такому "споживання соди", як це: > soda_gender f m n 0 5 y 5 0 Очевидно, це різке спрощення, але я не хотів, щоб …

1
R / mgcv: Чому тензорні вироби te () і ti () створюють різні поверхні?
У mgcvпакеті Rє дві функції для встановлення тензорних взаємодій між продуктами: te()і ti(). Я розумію основний розподіл праці між двома (встановлення нелінійної взаємодії проти декомпозиції цієї взаємодії на основні ефекти та взаємодію). Чого я не розумію, це чому te(x1, x2)і ti(x1) + ti(x2) + ti(x1, x2)може давати (трохи) різні результати. …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
Найпростіший спосіб знайти
Розглянемо 3 зразки iid, отримані з рівномірного розподілу , де параметр . Я хочу знайти де є порядком статистики .u ( θ , 2 θ )u(θ,2θ)u(\theta, 2\theta)θθ\thetaE [Х( 2 )|Х( 1 ),Х( 3 )]E[X(2)|X(1),X(3)] \mathbb{E}\left[X_{(2)}| X_{(1)}, X_{(3)}\right] Х( i )X(i)X_{(i)}iii Я б очікував, що результат буде Але єдиний спосіб, коли …

1
Очікування на продукти вищого порядку нормальних розподілів
У мене є дві нормально розподілені змінні Х1X1X_1 і Х2X2X_2 із середньою нульовою та коваріаційною матрицею ΣΣ\Sigma. Мені цікаво спробувати обчислити значенняЕ[Х21Х22]E[X12X22]E[X_1^2 X_2^2] в частині записів ΣΣ\Sigma. Я використав закон повної ймовірності отримати Е[Х21Х22] = Е[Х21Е[Х22|Х1] ]E[X12X22]=E[X12E[X22|X1]]E[X_1^2 X_2^2] = E[X_1^2 E[X_2^2 | X_1]] але я не впевнений, до чого зводиться …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.