Запитання з тегом «conditional-probability»

Ймовірність того, що подія A відбудеться, коли інша подія B, як відомо, сталася або сталася. Його зазвичай позначають P (A | B).

2
щодо умовної незалежності та її графічного зображення
Під час вивчення відбору коваріації я одного разу прочитав наступний приклад. Щодо наступної моделі: Його матриця коваріації та матриця зворотної коваріації наведені наступним чином, Я не розумію, чому незалежність і визначається тут зворотною коваріацією?xxxyyy Яка математична логіка лежить в основі цього взаємозв'язку? Також лівий графік на наступному малюнку стверджує, що …

1
Аксіома вибору Люсі, питання про умовну ймовірність [закрито]
Закрито . Це питання потребує деталей або ясності . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Додайте деталі та уточніть проблему, відредагувавши цю публікацію . Закрито 2 роки тому . Я читаю Люсь (1959) . Потім я знайшов це твердження: Коли людина вибирає серед альтернатив, дуже часто їхні відповіді, …

1
Інтерпретація графіків умовної щільності
Я хотів би знати, як правильно інтерпретувати графіки умовної щільності. Я вставив два нижче , що я створив в R з cdplot. Наприклад, чи вірогідність результату дорівнює 1, коли Var 1 дорівнює 150 приблизно 80%? Темно-сіра область - це та, яка умовна ймовірність Resultбуття дорівнює 1, правда? З cdplotдокументації: cdplot …

3
Серйозна поглиблена проблема ймовірностей гортання монет
Скажімо, я роблю 10 000 фліп монети. Мені хотілося б знати ймовірність того, скільки обертів потрібно, щоб отримати 4 і більше поспіль головок поспіль. Підрахунок буде працювати наступним чином, ви вважаєте, що один наступний раунд фліп - це лише голови (4 голови і більше). Коли хвостик вдарить і розірве смугу …

1
Чи можна навчати модель P (Y | X) за допомогою стохастичного градієнтного спуску з неіідних зразків P (X) та iid зразків P (Y | X)?
Під час тренування параметризованої моделі (наприклад, для збільшення максимальної вірогідності) за допомогою стохастичного градієнтного спуску на деякому наборі даних зазвичай прийнято вважати, що навчальні зразки витягуються внаслідок розподілу навчальних даних. Отже, якщо мета - моделювати спільний розподіл , то кожний навчальний зразок ( x i , y i ) повинен …

1
Чому ми не можемо вірити своїй інтуїції з вірогідністю?
Якщо колись був випадок, коли це стало зрозумілим, це проблема Монті Холл. Навіть великий Пол Ердос обдурив цю проблему. На моє запитання, на яке може бути важко відповісти, це те, що ймовірність того, що ми можемо бути настільки впевнені у відповіді, ми отримуємо інтуїтивно зрозумілий аргумент, але все-таки помиляємось. Закон …

5
Умовні ймовірності - чи властиві вони байєсіанству?
Цікаво, чи умовні ймовірності характерні лише для байєсіанства, чи вони є більш загальною концепцією, яка поділяється серед кількох шкіл думки серед людей статистики / ймовірності. Я начебто припускаю, що це так, тому що я припускаю, що ніхто не може виглядати логічно, тому я думаю, що часто лікарі теоретично погоджуються, застерігаючи …

3
Моделі Маркова з умовними ймовірностями переходу
По-перше, дозвольте мені наперед визнати, що я не так добре розбираюся у статистиці та математиці, як хотілося б. Дехто може сказати, що достатньо знань, щоб бути небезпечним. : DI вибачаюся, якщо я не використовую термінологію правильно. Я намагаюся моделювати ймовірності переходу системи з одного стану в інший. Проста модель Маркова …

13
Якщо "B більше шансів надати A", то "A швидше дається B"
Я намагаюся отримати більш чітку інтуїцію позаду: "Якщо робить більш імовірним, тоді робить більш імовірним", тобтоAAABBBBBBAAA Нехай позначає розмір простору , в якому і є, тоn(S)n(S)n(S)AAABBB Претензія: такP(B|A)>P(B)P(B|A)>P(B)P(B|A)>P(B)n(AB)/n(A)>n(B)/n(S)n(AB)/n(A)>n(B)/n(S)n(AB)/n(A) > n(B)/n(S) томуn(AB)/n(B)>n(A)/n(S)n(AB)/n(B)>n(A)/n(S)n(AB)/n(B) > n(A)/n(S) що єP(A|B)>P( А )P(A|B)>P(A)P(A|B)>P(A) Я розумію математику, але чому це має інтуїтивний сенс?

1
Як оптимально розподілити нічиї при розрахунку декількох очікувань
Припустимо, ми хочемо обчислити деяке очікування: EYEX|Y[f(X,Y)]EYEX|Y[f(X,Y)]E_YE_{X|Y}[f(X,Y)] Припустимо, ми хочемо наблизити це за допомогою моделювання Монте-Карло. ЕYЕХ| Y[ ф( X, Y) ] ≈1R S∑r = 1R∑s = 1Sf(хr , s,уr)EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) Але припустимо , що це дорого брати проби з обох розподілів, так що ми тільки можемо собі дозволити …

2
Конвергенція в розподілі \ CLT
Враховуючи, що , умовний дістр. з є . має граничний дистриб. Пуассона ( ), - позитивна константа.N= nN=нN = nYYYχ2( 2 п )χ2(2н)\chi ^2(2n)NNNθθ\thetaθθ\theta Покажіть, що як , у розподілі.θ → ∞θ→∞\theta \rightarrow \infty ( Y- Е( Y) ) /Вар( Y)------√→ N( 0 , 1 ) (Y-Е(Y))/Вар⁡(Y)→N(0,1)\space \space (Y - …

1
Парель між LSA та pLSA
В оригінальній статті pLSA автор Томас Гофман провів паралель між структурами даних pLSA та LSA, яку я хотів би обговорити з вами. Фон: Здійснюючи натхнення для отримання інформації, припустимо, у нас є колекція документів та словниковий запас термінівNNND={d1,d2,....,dN}D={d1,d2,....,dN}D = \lbrace d_1, d_2, ...., d_N \rbraceMMMΩ={ω1,ω2,...,ωM}Ω={ω1,ω2,...,ωM}\Omega = \lbrace \omega_1, \omega_2, ..., …

1
Як порівняти спостережувані та очікувані події?
Припустимо, у мене є один зразок частоти 4 можливих подій: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 і я маю очікувані ймовірності моїх подій: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 За допомогою суми спостережуваних частот моїх чотирьох подій (18) …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.