Запитання з тегом «conditional-probability»

Ймовірність того, що подія A відбудеться, коли інша подія B, як відомо, сталася або сталася. Його зазвичай позначають P (A | B).

4
Очікуване число я буду набирати після малювання карт, поки я не отримаю туза, 2, 3 тощо
У мене виникають проблеми з вирішенням наступного. Ви малюєте карти зі стандартної колоди на 52 картки без заміни, поки не отримаєте туза. Ви отримуєте з того, що залишилося, поки не отримаєте 2. Ви продовжуєте роботу з 3. Яке очікуване число ви будете мати після закінчення всієї колоди? Це було природно …

3
У Naive Bayes характерні ймовірності: чи слід подвоїти кількість слів?
Я прототипував свою власну модель Naive Bayes o 'слова слів, і у мене виникло питання щодо обчислення ймовірностей функції. Скажімо, у мене два класи, я буду просто використовувати спам та не-спам, оскільки саме цим користуються всі. І візьмемо для прикладу слово "віагра". У мене в навчальному наборі 10 електронних листів, …

2
Очікуване значення x при нормальному розподілі, НАДАЄТЬСЯ, що воно нижче певного значення
Цікаво, чи можна знайти очікуване значення x, якщо воно нормально розподіляється, враховуючи, що воно знаходиться нижче певного значення (наприклад, нижче середнього значення).

1
Точний тест Фішера та гіпергеометричне поширення
Я хотів краще зрозуміти точний тест Фішера, тому я розробив наступний іграшковий приклад, де f і m відповідає чоловічому та жіночому, а n і y відповідає такому "споживання соди", як це: > soda_gender f m n 0 5 y 5 0 Очевидно, це різке спрощення, але я не хотів, щоб …

5
Інтервал довіри та ймовірність - де помилка в цьому твердженні?
Якщо хтось робить заяву, як нижче: "Загалом, некурящі, які потрапляють під дію екологічного диму, мали відносний ризик ішемічної хвороби серця на 1,25 (95-відсотковий інтервал довіри, 1,17-1,32) порівняно з некурящими людьми, які не потрапляють до паління" Який відносний ризик для населення в цілому? Скільки речей пов’язано з ішемічною хворобою серця? З …

1
Вибірка з граничного розподілу з використанням умовного розподілу?
Я хочу взяти вибірку з одновимірної щільності але я знаю лише взаємозв'язок:fХfXf_X fХ( x ) = ∫fХ| Y( х | у) fY( у) dу.fХ(х)=∫fХ|Y(х|у)fY(у)гу.f_X(x) = \int f_{X\vert Y}(x\vert y)f_Y(y) dy. Я хочу уникати використання MCMC (безпосередньо на інтегральному поданні), і оскільки і легко , я думав про використання наступного пробника …

1
Як визначити розподіл таким, що черпає з нього кореляцію з виведенням з іншого заздалегідь заданого розподілу?
Як я можу визначити розподіл випадкової величини таким, що витяг з Y має кореляцію ρ з x 1 , де x 1 - це одиночне виведення з розподілу з кумулятивною функцією розподілу F X ( x ) ? YYYYYYρρ\rhoх1x1x_1х1x1x_1ЖХ( х )FX(x)F_{X}(x)

1
Байєсське моделювання з використанням багатоваріантного нормального з коваріатом
Припустимо, у вас є пояснювальна змінна де s являє собою задану координату. Ви також маєте змінну відповіді Y = ( Y ( s 1 ) , … , Y ( s n ) ) . Тепер ми можемо поєднати обидві змінні як:X=(X(s1),…,X(sn))X=(X(s1),…,X(sn)){\bf{X}} = \left(X(s_{1}),\ldots,X(s_{n})\right)sssY=(Y(s1),…,Y(sn))Y=(Y(s1),…,Y(sn)){\bf{Y}} = \left(Y(s_{1}),\ldots,Y(s_{n})\right) W(s)=(X(s)Y(s))∼N(μ(s),T)W(s)=(X(s)Y(s))∼N(μ(s),T){\bf{W}}({\bf{s}}) = \left( \begin{array}{ccc}X(s) …

2
Як такі програми, як BUGS / JAGS, автоматично визначають умовні розподіли для вибірки Gibbs?
Здається, що повні умови часто бувають досить важкими, але такі програми, як JAGS та BUGS, отримують їх автоматично. Чи може хтось пояснити, як вони алгоритмічно генерують повні умови для будь-якої довільної специфікації моделі?

1
R / mgcv: Чому тензорні вироби te () і ti () створюють різні поверхні?
У mgcvпакеті Rє дві функції для встановлення тензорних взаємодій між продуктами: te()і ti(). Я розумію основний розподіл праці між двома (встановлення нелінійної взаємодії проти декомпозиції цієї взаємодії на основні ефекти та взаємодію). Чого я не розумію, це чому te(x1, x2)і ti(x1) + ti(x2) + ti(x1, x2)може давати (трохи) різні результати. …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

2
Чому задня густина пропорційна функції ймовірності попереднього часу густини?
Згідно теореми Байєса, . Але згідно з моїм економетричним текстом, це говорить, що P ( θ | y ) ∝ P ( y | θ ) P ( θ ) . Чому це так? Я не розумію, чому P ( y ) ігнорується.П( у| θ)Р( θ ) = P( θ …

3
Як визначається
Скажіть, що - неперервна випадкова величина, а - дискретна. YYYXXXPr(X=x|Y=y)=Pr(X=x)Pr(Y=y|X=x)Pr(Y=y)Pr(X=x|Y=y)=Pr(X=x)Pr(Y=y|X=x)Pr(Y=y) \Pr(X=x|Y=y) = \frac{\Pr(X=x)\Pr(Y=y|X=x)}{\Pr(Y=y)} Як ми знаємо, оскільки - неперервна випадкова величина. І виходячи з цього, я маю намір зробити висновок, що ймовірність не визначена.Pr(Y=y)=0Pr(Y=y)=0\Pr(Y=y) = 0YYYPr(X=x|Y=y)Pr(X=x|Y=y)\Pr(X=x|Y=y) Однак Вікіпедія стверджує, що насправді це визначено так: Pr(X=x|Y=y)=Pr(X=x)fY|X=x(y)fY(y)Pr(X=x|Y=y)=Pr(X=x)fY|X=x(y)fY(y) \Pr(X=x|Y=y) = \frac{\Pr(X=x) f_{Y|X=x}(y)}{f_Y(y)} Питання: …

2
Яка ймовірність того, що задано ?
Припустимо, XXX і YYY є двовимірними нормальними із середнім μ=(μ1,μ2)μ=(μ1,μ2)\mu=(\mu_1,\mu_2) та коваріацією Σ=[σ11σ12σ12σ22]Σ=[σ11σ12σ12σ22]\Sigma = \begin{bmatrix} \sigma_{11} & \sigma_{12} \\ \sigma_{12} & \sigma_{22} \\ \end{bmatrix} . Яка ймовірність Pr(X&lt;Y|min(X,Y))Pr(X&lt;Y|min(X,Y))\Pr\left(X<Y|\min\left(X,Y\right)\right) ?

2
Сума коефіцієнтів багаточленного розподілу
\newcommand{\P}{\mathbb{P}} Я кидаю чесну смерть. Щоразу, коли я отримую 1, 2 або 3, я записую '1'; щоразу, коли отримую 4, записую «2»; щоразу, коли я отримую 5 або 6, я записую "3." Нехай - загальна кількість кидків, потрібних мені для добутку всіх чисел, які я записав, . Я хочу обчислити …


Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.