Запитання з тегом «probability»

Імовірність дає кількісний опис ймовірного настання певної події.

4
Варіант резисторів паралельно
Припустимо, у вас є набір резисторів R, всі вони розподілені із середнім μ та дисперсією σ. Розглянемо розділ ланцюга з таким компонуванням: (r) || (r + r) || (r + r + r). Еквівалентний опір кожної деталі дорівнює r, 2r та 3r. Дисперсія кожного розділу буде тоді σ2σ2σ^2 , 2σ22σ22σ^2 …

1
R лінійна регресія, категоріальна змінна значення «приховане»
Це лише приклад, на який я зустрічався кілька разів, тому у мене немає даних про вибірку. Запуск лінійної регресійної моделі в R: a.lm = lm(Y ~ x1 + x2) x1є суцільною змінною. x2категоричний і має три значення, наприклад "Низький", "Середній" та "Високий". Однак вихід, отриманий R, був би на кшталт: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
Доведення послідовності зменшується (підтримується побудовою великої кількості точок)
Багато питань, які я опублікував у минулому місяці щодо SE, мали на меті допомогти мені вирішити цю конкретну проблему. На всі питання відповіли, але я все ще не можу знайти рішення. Отже, я подумав, що треба просто задати проблему, яку я намагаюся вирішити безпосередньо. Дозволяє Хн∼ЖнХн∼ЖнX_n \sim F_n, де Жн= …

13
Якщо "B більше шансів надати A", то "A швидше дається B"
Я намагаюся отримати більш чітку інтуїцію позаду: "Якщо робить більш імовірним, тоді робить більш імовірним", тобтоAAABBBBBBAAA Нехай позначає розмір простору , в якому і є, тоn(S)n(S)n(S)AAABBB Претензія: такP(B|A)>P(B)P(B|A)>P(B)P(B|A)>P(B)n(AB)/n(A)>n(B)/n(S)n(AB)/n(A)>n(B)/n(S)n(AB)/n(A) > n(B)/n(S) томуn(AB)/n(B)>n(A)/n(S)n(AB)/n(B)>n(A)/n(S)n(AB)/n(B) > n(A)/n(S) що єP(A|B)>P( А )P(A|B)>P(A)P(A|B)>P(A) Я розумію математику, але чому це має інтуїтивний сенс?

1
Перевірка, чи монета справедлива
Наступне питання мені поставив друг. Я не міг їй допомогти, але сподіваюся, хтось може мені це пояснити. Я не міг знайти жодного подібного прикладу. Дякую за будь-яку допомогу та пояснення. Питання: Результати 100 експериментів з киданням монет записуються як 0 = "Хвіст" і 1 = "Голова". Вихід x - це …

5
Чому сума ймовірностей при безперервному рівномірному розподілі не є нескінченною?
Функція щільності ймовірності рівномірного розподілу (безперервного) показана вище. Площа під кривою дорівнює 1 - що має сенс, оскільки сума всіх ймовірностей при розподілі ймовірностей дорівнює 1. Формально вищевказану функцію ймовірності (f (x)) можна визначити як 1 / (ba) для x в [a, b] і 0 в іншому випадку Вважайте, що …

1
Які середня величина та дисперсія 0-цензурованої багатоваріантної норми?
Дозволяє Z∼N(μ,Σ)Z∼N(μ,Σ)Z \sim \mathcal N(\mu, \Sigma) бути в RdRd\mathbb R^d. Назвіть середню та коваріаційну матрицюZ+=max(0,Z)Z+=max(0,Z)Z_+ = \max(0, Z) (з максимально обчисленими елементами)? Це виникає, наприклад, тому, що якщо ми використовуємо функцію активації ReLU всередині глибокої мережі, і припустимо через CLT, що входи до даного шару приблизно нормальні, то це розподіл …

3
Що вище, або
Тож у мене був імовірний тест, і я не міг реально відповісти на це питання. Він просто запитав щось подібне: "Враховуючи, що - випадкова величина, 0 , використовуйте правильну нерівність, щоб довести те, що вище або рівне, E (X ^ 2) ^ 3 або E (X ^ 3) ^ 2 …

2
Очікування квадратного кореня суми незалежних квадратних рівномірних випадкових величин
Нехай є незалежними та однаково розподіленими стандартними однорідними випадковими змінними.X1,…,Xn∼U(0,1)X1,…,Xn∼U(0,1)X_1,\dots,X_n \sim U(0,1) Let Yn=∑inX2iI seek: E[Yn−−√]Let Yn=∑inXi2I seek: E[Yn]\text{Let }\quad Y_n=\sum_i^nX_i^2 \quad \quad \text{I seek: } \quad \mathbb{E}\big[\sqrt{Y_n } \big] Очікування легко:YnYnY_n E[X2]E[Yn]=∫10y2y√=13=E[∑inX2i]=∑inE[X2i]=n3E[X2]=∫01y2y=13E[Yn]=E[∑inXi2]=∑inE[Xi2]=n3\begin{align} \mathbb{E}\left[X^2\right] &=\int_0^1\frac{y}{2\sqrt{y}}=\frac{1}{3}\\ \mathbb{E}\left[Y_n\right] &=\mathbb{E}\left[\sum_i^nX_i^2\right] = \sum_i^n\mathbb{E}\left[X_i^2\right]=\frac{n}{3} \end{align} Тепер про нудну частину. Щоб застосувати LOTUS, мені знадобиться pdf …


2
Якщо я хочу мати 95% шансів на те, що менше 1% об'єктів несправні, скільки зразків мені потрібно?
Мені потрібно переконатися, що моя карта XML містить менше ніж 1%1%1\%сміття (розірвані ланки). Список URL-адрес є сотнями тисяч, і навіть якщо це можливо, протестувати їх усі 1 на 1, я б краще, з багатьох причин: 1 - Saved bandwidth 2 - Faster traffic for real clients 3 - Less noise …

1
Чи можемо ми зробити висновок з
Ну, ми не можемо побачити, наприклад, https://en.wikipedia.org/wiki/Subindependence для цікавого контрприкладу. Але справжнє запитання: чи є якийсь спосіб посилити умову, щоб випливала незалежність? Наприклад, чи є якийсь набір функційg1,…,gng1,…,gng_1, \dotsc, g_n так що якщо Egi(X)gj(Y)=Egi(X)Egj(Y)E⁡gi(X)gj(Y)=E⁡gi(X)E⁡gj(Y)\E g_i(X) g_j(Y) =\E g_i(X) \E g_j(Y) для усіх i,ji,ji,jто незалежність слідує? І наскільки великим повинен бути …

2
Який розподіл вірогідності цієї випадкової суми неіідних змінних Бернуллі?
Я намагаюся знайти розподіл ймовірності суми випадкової кількості змінних, які не однаково розподілені. Ось приклад: Джон працює в центрі обслуговування клієнтів. Він отримує дзвінки з проблемами і намагається їх вирішити. Ті, кого він не може вирішити, він передає їх своєму начальнику. Припустимо, що кількість дзвінків, які він отримує за день, …

1
Яка модель глибокого навчання може класифікувати категорії, які не є взаємовиключними
Приклади: у мене є речення в описі посади: "Старший інженер Java у Великобританії". Я хочу використовувати модель глибокого навчання, щоб передбачити її як 2 категорії: English і IT jobs. Якщо я використовую традиційну модель класифікації, вона може передбачити лише 1 мітку з softmaxфункцією на останньому шарі. Таким чином, я можу …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

2
Випадкові змінні, для яких нерівності Маркова, Чебишева є жорсткими
Мені цікаво побудувати випадкові величини, для яких нерівності Маркова чи Чебишева є жорсткими. Тривіальним прикладом є наступна випадкова величина. P(X=1)=P(X=−1)=0.5П(Х=1)=П(Х=-1)=0,5P(X=1)=P(X=-1) = 0.5. Його середнє значення дорівнює нулю, дисперсія - 1 іP(|X| ≥1)=1П(|Х|≥1)=1P(|X| \ge 1) = 1. Для цієї випадкової змінної чебишев є тісним (тримається з рівністю). P(|X|≥1)≤Var(X)12= 1П(|Х|≥1)≤Вар(Х)12=1P(|X|\ge 1) \le …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.