Запитання з тегом «assumptions»

Посилається на умови, за яких процедура статистики дає дійсні оцінки та / або висновки. Наприклад, багато статистичних методів вимагають припущення, що дані якимось чином вибірково вибираються. Теоретичні результати щодо оцінювачів зазвичай вимагають припущень щодо механізму генерації даних.

2
Чи застосовується «Теорема без вільного обіду» для загальних статистичних тестів?
Жінка, для якої я працював, попросила мене зробити ANOVA в одну сторону за деякими даними. Я відповів, що дані були повторними заходами (часовими рядами) і вважаю, що припущення про незалежність порушено. Вона відповіла, що я не повинен турбуватися про припущення, просто зробіть тест, і вона врахує, що припущення, можливо, не …

2
Чи більш імовірно, що зазвичай розподілені X і Y призводять до нормально розподілених залишків?
Тут обговорюється неправильне трактування припущення про нормальність в лінійній регресії (що "нормальність" позначає X та / або Y, а не залишки), і плакат запитує, чи можливо не нормально розподілені X і Y і все ще мають нормально розподілені залишки. Моє запитання: як правило, розподілені X і Y мають більше шансів …

2
Варіантно-коваріаційна інтерпретація матриці
Припустимо, у нас є лінійна модель Model1і vcov(Model1)дає таку матрицю: (Intercept) latitude sea.distance altitude (Intercept) 28.898100 -23.6439000 -34.1523000 0.50790600 latitude -23.643900 19.7032500 28.4602500 -0.42471450 sea.distance -34.152300 28.4602500 42.4714500 -0.62612550 altitude 0.507906 -0.4247145 -0.6261255 0.00928242 Для цього прикладу, що насправді відображає ця матриця? Які припущення ми можемо сміливо зробити для нашої …

2
Перевірка залишків на нормальність в узагальнених лінійних моделях
У цій роботі використовуються узагальнені лінійні моделі (як біноміальні, так і негативні розподіли біноміальних помилок) для аналізу даних. Але потім у розділі статистичного аналізу методів є таке твердження: ... і по-друге, моделюючи дані про наявність за допомогою моделей логістичної регресії та дані про час збирання за допомогою узагальненої лінійної моделі …

4
Припущення щодо регресійного залишкового розподілу
Чому необхідно розміщувати припущення про розподіл на помилках, тобто yi=Xβ+ϵiyi=Xβ+ϵiy_i = X\beta + \epsilon_{i} , приϵi∼N(0,σ2)ϵi∼N(0,σ2)\epsilon_{i} \sim \mathcal{N}(0,\sigma^{2}) . Чому б не написати yi=Xβ+ϵiyi=Xβ+ϵiy_i = X\beta + \epsilon_{i} зуi∼ N( Xβ^, σ2)yi∼N(Xβ^,σ2)y_i \sim \mathcal{N}(X\hat{\beta},\sigma^{2}) , де в будь-якому випадку ϵi= уi- у^ϵi=yi−y^\epsilon_i = y_i - \hat{y} . Я бачив, як …

2
Чому деякі люди перевіряють регресійні припущення щодо моделей на своїх необроблених даних, а інші перевіряють їх на залишкові?
Я докторант з експериментальної психології і намагаюся вдосконалити свої вміння та знання щодо того, як аналізувати свої дані. До мого 5-го курсу психології я вважав, що регресійні моделі (наприклад, ANOVA) передбачають такі речі: нормальність даних дисперсія гомогенності даних тощо Мої бакалаврські курси спонукають мене до думки, що припущення стосуються даних. …

2
Які припущення щодо нормальності необхідні для непарного тесту? А коли їх зустрічають?
Якщо ми хочемо провести парний t-тест, вимога полягає (якщо я правильно розумію), щоб середня різниця між зібраними одиницями вимірювання розподілялася нормально. У парному t-тесті це сформульовано (AFAIK) з вимогою, щоб різниця між зібраними одиницями вимірювання розподілялася нормально (навіть якщо розподіл кожної з двох порівняних груп не є нормальним). Однак у …

1
Умовна гомоскедастичність проти гетерокедастичності
З економетрики , Фуміо Хаяші (гл. 1): Беззастережна гомоскедастичність: Другий момент термінів помилки E (εᵢ²) є постійним у всіх спостереженнях Функціональна форма E (εᵢ² | xi) є постійною в спостереженнях Умовна гомоскедастичність: Знімається обмеження, що другий момент термінів помилки E (εᵢ²) є постійним у всіх спостереженнях Таким чином, умовний другий …

1
Що таке хороший показник ступеня порушення нормальності та які описові мітки можуть бути додані до цього показника?
Контекст: У попередньому запитанні @Robbie запитав у дослідженні, в якому було проведено близько 600 випадків, чому тести на нормальність пропонували значну нестандартність, але сюжети пропонували нормальний розподіл . Кілька людей підкреслили, що тести на значущість не є дуже корисними. З невеликими зразками такі тести не мають великої сили для виявлення …

3
Які припущення факторного аналізу?
Я хочу перевірити, чи дійсно я зрозумів [класичний, лінійний] аналіз факторів (FA), особливо припущення , які зроблені до (а можливо, після) ФА. Деякі дані слід спочатку співвіднести і між ними можливе лінійне співвідношення. Після факторного аналізу дані зазвичай розподіляються (двовимірний розподіл для кожної пари) і немає кореляції між факторами (загальними …

1
R / mgcv: Чому тензорні вироби te () і ti () створюють різні поверхні?
У mgcvпакеті Rє дві функції для встановлення тензорних взаємодій між продуктами: te()і ti(). Я розумію основний розподіл праці між двома (встановлення нелінійної взаємодії проти декомпозиції цієї взаємодії на основні ефекти та взаємодію). Чого я не розумію, це чому te(x1, x2)і ti(x1) + ti(x2) + ti(x1, x2)може давати (трохи) різні результати. …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
Припущення про нормальність при лінійній регресії
Як припущення про лінійну регресію, нормальність розподілу помилки іноді помилково "розширюється" або трактується як потреба в нормальності y або x. Чи можливо побудувати сценарій / набір даних, що там, де X і Y ненормальні, але термін помилки є, і тому отримані оцінки лінійної регресії є дійсними?

3
Чи припущення про лінійність у лінійній регресії є лише визначенням ?
Я переглядаю лінійну регресію. У підручнику Гріна сказано: Тепер, звичайно, будуть існувати й інші припущення щодо лінійної регресійної моделі, такі як . Це припущення у поєднанні з припущенням про лінійність (яке фактично визначає ) ставить структуру на модель.ϵE(ϵ|X)=0E(ϵ|X)=0E(\epsilon|X)=0ϵϵ\epsilon Однак припущення про лінійність саме по собі не наводить жодної структури нашої …

2
Регрес: чому тест нормальність загальних залишків, а залишки зумовлюють
Я розумію, що в лінійній регресії помилки вважаються нормально розподіленими, що залежать від прогнозованого значення y. Тоді ми розглядаємо залишки як своєрідний проксі для помилок. Це часто рекомендується для створення виведення , як це: . Однак я не розумію, у чому сенс отримання залишків для кожної точки даних та об'єднання …

3
Чому багаторазові заходи ANOVA передбачають сферичність?
Чому багаторазові заходи ANOVA передбачають сферичність? Під сферичністю я маю на увазі припущення, що дисперсія всіх парних відмінностей між групами повинна бути однаковою. Зокрема, я не розумію, чому це повинно бути припущенням, а не те, що відхилення в оцінюваних групах самі по собі є однаковими.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.