Запитання з тегом «expected-value»

Очікуване значення випадкової величини - це середньозважене значення всіх можливих значень, яке може взяти випадкова величина, з вагами, рівними ймовірності прийняття цього значення.

2
Очікування квадратного кореня суми незалежних квадратних рівномірних випадкових величин
Нехай є незалежними та однаково розподіленими стандартними однорідними випадковими змінними.X1,…,Xn∼U(0,1)X1,…,Xn∼U(0,1)X_1,\dots,X_n \sim U(0,1) Let Yn=∑inX2iI seek: E[Yn−−√]Let Yn=∑inXi2I seek: E[Yn]\text{Let }\quad Y_n=\sum_i^nX_i^2 \quad \quad \text{I seek: } \quad \mathbb{E}\big[\sqrt{Y_n } \big] Очікування легко:YnYnY_n E[X2]E[Yn]=∫10y2y√=13=E[∑inX2i]=∑inE[X2i]=n3E[X2]=∫01y2y=13E[Yn]=E[∑inXi2]=∑inE[Xi2]=n3\begin{align} \mathbb{E}\left[X^2\right] &=\int_0^1\frac{y}{2\sqrt{y}}=\frac{1}{3}\\ \mathbb{E}\left[Y_n\right] &=\mathbb{E}\left[\sum_i^nX_i^2\right] = \sum_i^n\mathbb{E}\left[X_i^2\right]=\frac{n}{3} \end{align} Тепер про нудну частину. Щоб застосувати LOTUS, мені знадобиться pdf …



1
Як оптимально розподілити нічиї при розрахунку декількох очікувань
Припустимо, ми хочемо обчислити деяке очікування: EYEX|Y[f(X,Y)]EYEX|Y[f(X,Y)]E_YE_{X|Y}[f(X,Y)] Припустимо, ми хочемо наблизити це за допомогою моделювання Монте-Карло. ЕYЕХ| Y[ ф( X, Y) ] ≈1R S∑r = 1R∑s = 1Sf(хr , s,уr)EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) Але припустимо , що це дорого брати проби з обох розподілів, так що ми тільки можемо собі дозволити …

4
Очікувана кількість рулонів з кістки вимагає, щоб сума була більшою або дорівнює K?
Шестигранна штамповка згортається ітераційно. Яка очікувана кількість рулонів, необхідна для отримання суми, більшої або дорівнює K? Перед редагуванням P(Sum>=1 in exactly 1 roll)=1 P(Sum>=2 in exactly 1 roll)=5/6 P(Sum>=2 in exactly 2 rolls)=1/6 P(Sum>=3 in exactly 1 roll)=5/6 P(Sum>=3 in exactly 2 rolls)=2/6 P(Sum>=3 in exactly 3 rolls)=1/36 P(Sum>=4 in …

1
Очікуване значення статистики мінімального замовлення від звичайної вибірки
ОНОВЛЕННЯ 25 січня 2014 року: помилка тепер виправлена. Будь ласка, ігноруйте обчислені значення очікуваного значення у завантаженому зображенні - вони неправильні. Я не видаляю зображення, оскільки воно створило відповідь на це запитання. ОНОВЛЕННЯ 10 січня 2014 року: помилка виявлена ​​- математичний друк в одному з використаних джерел. Підготовка корекції ... …

2
Як знайти очікувану відстань між двома рівномірно розподіленими точками?
Якби я визначив координати і де(Х1,Y1)(X1,Y1)(X_{1},Y_{1})(Х2,Y2)(X2,Y2)(X_{2},Y_{2}) Х1,Х2∼ Unif ( 0 , 30 ) і Y1,Y2∼ Unif ( 0 , 40 ) .X1,X2∼Unif(0,30) and Y1,Y2∼Unif(0,40).X_{1},X_{2} \sim \text{Unif}(0,30)\text{ and }Y_{1},Y_{2} \sim \text{Unif}(0,40). Як я можу знайти очікуване значення відстані між ними? Я думав, оскільки відстань обчислюється буде очікуваним значенням просто бути ?(Х1-Х2)2+ …

1
Центральні моменти симетричних розподілів
Я намагаюся показати, що центральний момент симетричного розподілу: дорівнює нулю для непарних чисел. Так, наприклад, третій центральний моментЯ почав із спроби показати, щоЯ не впевнений, куди звідси піти, якісь пропозиції? Чи є кращий спосіб довести це?fx(a+x)=fx(a−x)fx(a+x)=fx(a−x){\bf f}_x{\bf (a+x)} = {\bf f}_x{\bf(a-x)}E[(X−u)3]=0.E[(X−u)3]=0.{\bf E[(X-u)^3] = 0}.E[(X−u)3]=E[X3]−3uE[X2]+3u2E[X]−u3.E[(X−u)3]=E[X3]−3uE[X2]+3u2E[X]−u3.{\bf E[(X-u)^3] = E[X^3] -3uE[X^2] + 3u^2E[X] …

1
Очікуване логічне значення нецентрального експоненціального розподілу
Припустимо, нецентральний експоненціально розподілений з розташуванням та швидкістю . Потім, що таке .XXXkkkλλ\lambdaE(log(X))E(log⁡(X))E(\log(X)) Я знаю, що при відповідь де - константа Ейлера-Машероні. Що робити, коли ?k=0k=0k=0−log(λ)−γ−log⁡(λ)−γ-\log(\lambda) - \gammaγγ\gammak>0k>0k > 0

2
Параметричне, напівпараметричне та непараметричне завантаження для змішаних моделей
Наступні трансплантати взяті з цієї статті . Я новачок у завантажувальній програмі та намагаюся реалізувати параметричне, напівпараметричне та непараметричне завантажувальне завантаження для лінійної змішаної моделі з R bootпакетом. R код Ось мій Rкод: library(SASmixed) library(lme4) library(boot) fm1Cult <- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult), data=Cultivation) fixef(fm1Cult) boot.fn …
9 r  mixed-model  bootstrap  central-limit-theorem  stable-distribution  time-series  hypothesis-testing  markov-process  r  correlation  categorical-data  association-measure  meta-analysis  r  anova  confidence-interval  lm  r  bayesian  multilevel-analysis  logit  regression  logistic  least-squares  eda  regression  notation  distributions  random-variable  expected-value  distributions  markov-process  hidden-markov-model  r  variance  group-differences  microarray  r  descriptive-statistics  machine-learning  references  r  regression  r  categorical-data  random-forest  data-transformation  data-visualization  interactive-visualization  binomial  beta-distribution  time-series  forecasting  logistic  arima  beta-regression  r  time-series  seasonality  large-data  unevenly-spaced-time-series  correlation  statistical-significance  normalization  population  group-differences  demography 

4
Як співвідношення очікуваного значення з середнім, середнім і т. Д. В ненормальному розподілі?
Яким чином очікуване значення безперервної випадкової величини пов'язане з середньою арифметичною, медіаною тощо у ненормальному розподілі (наприклад, перекос-нормаль)? Мене цікавлять будь-які поширені / цікаві дистрибуції (наприклад, log-normal, прості бі / мультимодальні дистрибутиви, все інше дивне та чудове). Я здебільшого шукаю якісні відповіді, але будь-які кількісні чи формульні відповіді також вітаються. …

2
Обчисліть криву ROC для даних
Отже, у мене є 16 випробувань, в яких я намагаюся ідентифікувати людину з біометричної ознаки за допомогою дистанції Hamming. Мій поріг встановлено на 3,5. Мої дані нижче, і лише пробна версія 1 - справжнє Позитивне: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.