Запитання з тегом «variance»

Очікуване відхилення у квадраті випадкової величини від її середнього; або, середнє квадратичне відхилення даних про їх середнє значення.

2
У нормальних та біноміальних моделях чи завжди задня дисперсія менша за попередню дисперсію?
Або які умови це гарантують? Взагалі (і не тільки нормальні та біноміальні моделі) я вважаю, що головна причина, яка порушила цю заяву, полягає в тому, що між моделлю вибірки та попередньою є невідповідність, але що ще? Я починаю з цієї теми, тому дуже ціную легкі приклади

3
Центральна гранична теорема та розподіл Парето
Чи може хтось, будь ласка, надати просте (непрофесійне) пояснення взаємозв'язку між розподілами Парето та теоремою центрального обмеження (наприклад, чи застосовується це? Чому / чому ні?)? Я намагаюся зрозуміти таке твердження: "Теорема центрального ліміту не працює з кожним розподілом. Це пов'язано з одним підлим фактом - засоби вибірки об'єднуються навколо середнього …

1
Використання медіани для обчислення варіації
У мене є 1-D випадкова величина, яка надзвичайно перекошена. Для нормалізації цього розподілу я хочу використовувати медіану, а не середню. моє запитання таке: чи можу я обчислити дисперсію розподілу за допомогою медіани у формулі замість середнього? тобто можу я замінити V a r (X) = ∑ [ (Хi- м е …
10 variance  mean  median 

4
Модель історії дискретних подій дискретного часу (виживання) в R
Я намагаюся вписати в R дискретний час модель, але не знаю, як це зробити. Я читав, що ви можете організувати залежну змінну в різні рядки, по одній для кожного часу спостереження, і використовувати glmфункцію за допомогою посилання logit або cloglog. У цьому сенсі, у мене є три колонки: ID, Event(1 …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
Що таке точкова дисперсія?
Читаючи "Елементи статистичного навчання" , я кілька разів стикався з терміном "точкова різниця". Хоча я маю неясне уявлення про те, що це, ймовірно, означає, я буду вдячний знати Як це визначено? Як воно виводиться?
10 variance 

4
Варіант резисторів паралельно
Припустимо, у вас є набір резисторів R, всі вони розподілені із середнім μ та дисперсією σ. Розглянемо розділ ланцюга з таким компонуванням: (r) || (r + r) || (r + r + r). Еквівалентний опір кожної деталі дорівнює r, 2r та 3r. Дисперсія кожного розділу буде тоді σ2σ2σ^2 , 2σ22σ22σ^2 …

1
R лінійна регресія, категоріальна змінна значення «приховане»
Це лише приклад, на який я зустрічався кілька разів, тому у мене немає даних про вибірку. Запуск лінійної регресійної моделі в R: a.lm = lm(Y ~ x1 + x2) x1є суцільною змінною. x2категоричний і має три значення, наприклад "Низький", "Середній" та "Високий". Однак вихід, отриманий R, був би на кшталт: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
Яка проблема чи гра - оптимальні рішення варіабельності та стандартного відхилення?
Для даної випадкової величини (або сукупності, або стохастичного процесу) математичне очікування є відповіддю на питання Який бальний прогноз мінімізує очікувані квадратні втрати? . Крім того, це оптимальне рішення для гри Вгадайте наступну реалізацію випадкової величини (або нове розіграш у сукупності), і я покараю вас за відстань у квадраті між значенням …

2
Декомпозиція дисперсії зміщення: термін для очікуваної помилки прогнозу в квадраті за вирахуванням помилки
Хасті та ін. "Елементи статистичного навчання" (2009) розглядають процес формування даних Y= f( X) + εY=f(X)+ε Y = f(X) + \varepsilon з E (ε)=0E(ε)=0\mathbb{E}(\varepsilon)=0 і Var ( ε ) =σ2εVar(ε)=σε2\text{Var}(\varepsilon)=\sigma^2_{\varepsilon}. Вони представляють наступне розмежування дисперсійної дисперсії очікуваної помилки прогнозу в квадраті в точці х0x0x_0 (с. 223, формула 7.9): Помилка (х0)= …

3
Оберніть компоненти PCA, щоб вирівняти дисперсію в кожному компоненті
Я намагаюся зменшити розмірність і шум набору даних, виконуючи PCA на наборі даних і викидаючи останні кілька ПК. Після цього я хочу використовувати деякі алгоритми машинного навчання на решті ПК, і тому хочу нормалізувати дані, вирівнюючи дисперсію ПК, щоб алгоритми працювали краще. Один простий спосіб - просто нормалізувати дисперсію до …


2
Різниця середнього значення зразка завантажувального зразка
Дозволяє Х1, . . . ,ХнХ1,...,ХнX_{1},...,X_{n}бути чіткими спостереженнями (відсутність зв’язків). ДозволяєХ∗1, . . . ,Х∗нХ1∗,...,Хн∗X_{1}^{*},...,X_{n}^{*}позначимо зразок завантаження (зразок із емпіричного CDF) і нехай . Знайдіть та .Х¯∗н=1н∑нi = 1Х∗iХ¯н∗=1н∑i=1нХi∗\bar{X}_{n}^{*}=\frac{1}{n}\sum_{i=1}^{n}X_{i}^{*}Е(Х¯∗н)Е(Х¯н∗)E(\bar{X}_{n}^{*})V a r (Х¯∗н)Vаr(Х¯н∗)\mathrm{Var}(\bar{X}_{n}^{*}) Я маю досі це те, що є кожен з вірогідністю так що та що дає Х∗iХi∗X_{i}^{*}Х1, . . …

2
Знаходження дисперсії оцінювача для максимальної ймовірності розподілу Пуассона
Якщо це розподіли Пуассона з параметром я розробив, що максимальна оцінка ймовірності - для даних . Тому ми можемо визначити відповідний оцінювач Моє запитання - як би ви розробили дисперсію цього оцінника?К1, … ,КнК1,…,КнK_1, \dots, K_nββ\betaβ^(к1, … ,кн) =1н∑i = 1нкiβ^(к1,…,кн)=1н∑i=1нкi\hat\beta (k_1, \dots, k_n) = \frac{1}{n} \sum_{i=1}^n k_iк1, … ,кнк1,…,кнk_1, …

2
Нульова гіпотеза Манна-Вітні за неоднакової дисперсії
Мені просто цікаво нікчемна гіпотеза тесту Манна-Вітні U. Я часто бачу, що зазначається, що нульовою гіпотезою є те, що дві групи населення мають однаковий розподіл. Але я думаю - якби у мене було дві нормальні популяції з однаковою середньою, але надзвичайно неоднаковою дисперсією, тест Манна-Вітні, певно, не виявив би цієї …

4
Box Cox Трансформації для регресії
Я намагаюся встановити лінійну модель на деякі дані лише з одним предиктором (скажімо, (x, y)). Дані є такими, що для малих значень x значення y дають чітке прилягання до прямої лінії, однак у міру збільшення значень x значення y стають більш мінливими. Ось приклад таких даних (код R) y = …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.