Запитання з тегом «normality-assumption»

Багато статистичних методів передбачають, що дані зазвичай розподіляються. Використовуйте цей тег для запитань про припущення та перевірку нормальності або про нормальність як властивість *. Використовуйте [нормальний розподіл] для запитань щодо нормального розподілу як такого.

2
Чи можемо ми побачити форму нормальної кривої десь у природі?
Я не хочу знати, чи мають деякі явища в природі нормальне поширення, але чи можемо ми десь побачити форму нормальної кривої, як ми можемо бачити її, наприклад, у полі Галтона. Дивіться цю цифру з Вікіпедії. Зауважте, що багато математичних фігур чи кривих прямо бачать у природі, наприклад, золоту середину та …

4
Трансформація для збільшення куртозу та косості нормальних об
Я працюю над алгоритмом, який спирається на те, що спостереження YYY s зазвичай розподіляються, і я хотів би перевірити стійкість алгоритму до цього припущення емпірично. Щоб зробити це, я шукав послідовність перетворень T1(),…,Tn()T1(),…,Tn()T_1(), \dots, T_n() , яка буде поступово руйнувати нормальності YYY . Наприклад, якщо YYY s нормальні, вони мають …

4
Які правильні значення для точності та відкликання у кращих випадках?
Точність визначається як: p = true positives / (true positives + false positives) Чи правильно, що як true positivesі false positivesпідхід 0, точність наближається до 1? Те саме запитання для відкликання: r = true positives / (true positives + false negatives) Зараз я впроваджую статистичний тест, де мені потрібно обчислити …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

3
Приклад розподілу, коли для теореми центральної межі необхідний великий розмір вибірки
У деяких книгах зазначено, що розмір вибірки розміром 30 або вище необхідний, щоб теорема про центральну межу дала хороший наближення для . Х¯X¯\bar{X} Я знаю, цього недостатньо для всіх дистрибутивів. Я хотів би побачити кілька прикладів розподілів, де навіть при великому розмірі вибірки (можливо, 100, 1000 або більше) розподіл середнього …

2
Як перевірити на відмінності між двома груповими засобами, коли дані нормально не розподіляються?
Я усуну всі біологічні деталі та експерименти і навожу лише проблему, яку я маю на увазі, і що я зробив статистично. Я хотів би знати, чи є її право, а якщо ні, як діяти. Якщо дані (або моє пояснення) недостатньо зрозумілі, я спробую пояснити краще, редагуючи. Припустимо, у мене є …

4
Що ґрунтується на визначенні граніту "Графік" та "Віскі"?
Стандартне визначення викиду для ділянки Box і бакенбард точки за межами діапазону , де я Q R = Q 3 - Q 1 і Q 1 є перший квартал і Q 3 - третій квартал даних.{Q1−1.5IQR,Q3+1.5IQR}{Q1−1.5IQR,Q3+1.5IQR}\left\{Q1-1.5IQR,Q3+1.5IQR\right\}IQR=Q3−Q1IQR=Q3−Q1IQR= Q3-Q1Q1Q1Q1Q3Q3Q3 Що є основою для цього визначення? Маючи велику кількість балів, навіть абсолютно нормальний …

1
Чому ми вважаємо, що помилка зазвичай розподіляється?
Цікаво, чому ми використовуємо припущення Гаусса при моделюванні помилки. У курсі МЛ Стенфорда професор Нг описує це в основному двома способами: Це математично зручно. (Це пов'язано з розміщенням найменших квадратів і їх легко вирішити за допомогою псевдоінверси) Зважаючи на теорему центрального ліміту, ми можемо вважати, що існує безліч фактів, що …

2
Чому F-тест настільки чутливий для припущення про нормальність?
Чому F -тест різниці дисперсій настільки чутливий до припущення про нормальний розподіл навіть для великих NNN ? Я спробував здійснити пошук в Інтернеті та відвідав бібліотеку, але жодна з них не дала хороших відповідей. Там сказано, що тест дуже чутливий до порушення припущення про нормальний розподіл, але я не розумію, …

5
Як означає розподіл вибірки на вибірку, приблизно, означає сукупність?
Я намагаюся вивчити статистику, бо вважаю, що вона настільки поширена, що забороняє мені вчитися чомусь, якщо я не розумію її належним чином. У мене виникають проблеми з розумінням цього поняття розподілу вибірки засобів вибірки. Я не можу зрозуміти, як це пояснили деякі книги та сайти. Я думаю, що я розумію, …

2
Повторні заходи ANOVA: що таке нормальність?
Мене бентежить припущення про нормальність у повторних заходах ANOVA. Зокрема, мені цікаво, яку саме норму слід точно задовольняти. Читаючи літературу та відповіді на резюме, я зіткнувся з трьома різними словами цього припущення. Залежну змінну в межах кожної (повторної) умови слід розподіляти нормально. Часто зазначається, що rANOVA має ті самі припущення, …

1
R: нормальність тесту залишків лінійної моделі - які залишки використовувати
Я хотів би зробити W тест Шапіро Вілка і тест Колмогорова-Смірнова на залишки лінійної моделі, щоб перевірити їх нормальність. Мені було просто цікаво, які залишки слід використовувати для цього - залишки сировини, залишки Пірсона, залишки в студії або стандартизовані залишки? Для W тесту Shapiro-Wilk W виявляється, що результати для залишків …

1
Пакет GBM проти Caret з використанням GBM
Я налаштовував модель за допомогою caret, але потім повторно запустив модель за допомогою gbmпакета. Наскільки я розумію, що caretпакет використовує gbmі вихід повинен бути однаковим. Однак, лише швидкий тестовий пробіг із застосуванням data(iris)показує невідповідність моделі приблизно 5%, використовуючи RMSE і R ^ 2 в якості метрики оцінювання. Я хочу знайти …

2
Відступ від припущення щодо нормальності в ANOVA: чи важливіший куртоз чи косостість?
Прикладні лінійні статистичні моделі від Kutner et al. йдеться про наступне, що стосується відхилень від норми припущення щодо моделей ANOVA: Куртоз розподілу помилок (або більше, або максимум, ніж звичайний розподіл) важливіший, ніж спотвореність розподілу з точки зору впливу на умовиводи . Я трохи спантеличений цим твердженням і не встиг знайти …

1
Чому б не завжди використовувати інтерфейси завантажувача?
Мені було цікаво, як виконуються завантажувальні інтерфейси завантаження (і BCa у бартикулярних) на нормально розподілених даних. Здається, багато роботи над вивченням їх роботи на різних типах розподілів, але не вдалося знайти нічого в нормально розподілених даних. Оскільки, здається, спочатку вивчити очевидну річ, я вважаю, що документи просто занадто старі. Я …

5
Як виконати імпутацію значень у дуже великій кількості точок даних?
У мене дуже великий набір даних, і близько 5% випадкових значень відсутні. Ці змінні співвідносяться між собою. Наступний приклад набору даних R - це лише іграшковий приклад з манекено-корельованими даними. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.