Запитання з тегом «residuals»

Залишки моделі - це фактичні значення за вирахуванням прогнозованих значень. Багато статистичних моделей роблять припущення про помилку, яка оцінюється залишками.

3
Середня помилка у квадраті та залишкова сума квадратів
Переглядаючи визначення Вікіпедії: Середня помилка в квадраті (MSE) Залишкова сума квадратів (RSS) Мені це здається MSE=1NRSS=1N∑(fi−yi)2MSE=1NRSS=1N∑(fi−yi)2\text{MSE} = \frac{1}{N} \text{RSS} = \frac{1}{N} \sum (f_i -y_i)^2 де NNN - кількість зразків, а - наша оцінка .fifif_iyiyiy_i Однак жодна із статей Вікіпедії не згадує про ці стосунки. Чому? Я щось пропускаю?
31 residuals  mse 

2
Сирі залишки порівняно з стандартизованими залишками проти залишків, що вивчаються студентами - що використовувати коли?
Це схоже на подібне запитання і не отримало багато відповідей. Пропускаючи тести, такі як Кук Д, і просто дивлячись на залишки як на групу, мене цікавить, як інші використовують залишки під час оцінки придатності. Я використовую залишки сировини: у QQ-графіку для оцінки нормальності у розсіюванні відносно залишків, для перевірки очним …

1
Чи може ступінь свободи бути цілим числом?
Коли я використовую GAM, це дає мені залишковий коефіцієнт DF (останній рядок у коді). Що це означає? Виходячи за приклад GAM, загалом, чи може число ступенів свободи бути нецілим числом?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

3
Що слід перевірити на предмет нормальності: вихідні дані чи залишки?
Я дізнався, що я повинен перевірити нормальність не на вихідних даних, а на їх залишки. Чи слід обчислювати залишки, а потім робити W тест Шапіро – Вілка? Чи обчислюються залишки як: ?Хi- маю на увазіХi-маю на увазіX_i - \text{mean} Будь ласка, дивіться це попереднє питання щодо моїх даних та дизайну.

5
Яка очікувана кореляція між залишковою та залежною змінною?
У декількох лінійних регресіях я можу зрозуміти, що кореляція між залишковим та предиктором дорівнює нулю, але яка очікувана кореляція між залишковою та критеріальною змінною? Чи слід очікувати, що він буде нульовим або сильно корелює? У чому сенс цього?

2
Діагностика для узагальнених лінійних (змішаних) моделей (конкретно залишків)
В даний час я борюся з пошуком правильної моделі для складних підрахунків даних (залежна змінна). Я спробував різні моделі (для моїх даних потрібні моделі змішаних ефектів), таких як lmerі lme4(з перетворенням журналу), а також узагальнені лінійні змішані ефекти з різними сімействами, такими як гауссова або негативна двочлен. Однак я зовсім …

5
Припущення лінійних моделей і що робити, якщо залишки нормально не розподілені
Я трохи розгублений, що таке припущення про лінійну регресію. Поки я перевірив, чи: всі пояснювальні змінні лінійно співвідносяться зі змінною відповіді. (Так було) серед пояснювальних змінних була якась колінеарність. (мало колінеарності). відстані Кука від точок даних моєї моделі нижче 1 (це так, усі відстані нижче 0,4, тому немає балів впливу). …

2
Чому нормальність залишків "ледве важлива взагалі" для оцінки лінії регресії?
Гельман і Хілл (2006) на p46 пишуть, що: Припущення регресії, яке, як правило, є найменш важливим, полягає в тому, що помилки зазвичай розподіляються. Насправді, для оцінки лінії регресії (порівняно з прогнозуванням окремих точок даних) припущення про нормальність ледве важливе. Таким чином, на відміну від багатьох регресійних підручників, ми не рекомендуємо …

1
Залишкова діагностика в регресійних моделях на основі МСМС
Нещодавно я взявся за пристосування регресійних змішаних моделей у байєсівській основі, використовуючи алгоритм MCMC (фактично функція MCMCglmm в R). Я вважаю, що я зрозумів, як діагностувати конвергенцію процесу оцінки (слід, графік гевеке, автокореляція, задній розподіл ...). Одне з того, що мене вражає в байєсівських рамках, - це те, що, здається, …

2
У простій лінійній регресії звідки береться формула дисперсії залишків?
Відповідно до тексту, який я використовую, формула дисперсії залишку задається:ithithi^{th} σ2(1−1n−(xi−x¯¯¯)2Sxx)σ2(1−1n−(xi−x¯)2Sxx)\sigma^2\left ( 1-\frac{1}{n}-\frac{(x_{i}-\overline{x})^2}{S_{xx}} \right ) Я знаходжу це важко повірити , так як залишкова різниця між спостережуваним значенням і підігнаній значення; якби було обчислити дисперсію різниці, я, принаймні, очікував би певних «плюсів» у отриманому виразі. Будь-яка допомога в розумінні походження …

2
Як працюють вузькі архітектури в нейронних мережах?
Ми визначаємо архітектуру вузького місця як тип, знайдений у статті ResNet, де [два шари конвеєра 3x3] замінені на [один 1x1 conv, один 3x3 conv та інший 1x1 conv шар]. Я розумію, що шари conv 1x1 використовуються як форма зменшення розмірів (і відновлення), що пояснюється в іншій публікації . Однак мені …

1
Інтуїція індексу оцінювача сендвіч
Вікіпедія та віньєтка із сендвіч-пакету R надають хорошу інформацію про припущення, що підтримують стандартні помилки коефіцієнта OLS та математичну основу сендвіч-оцінювачів. Мені все ще не зрозуміло, як вирішується проблема гетероседастичності залишків, мабуть, тому, що я не розумію в першу чергу стандартну оцінку дисперсії коефіцієнтів OLS. Яка інтуїція стоїть за сендвіч-оцінкою?

2
Залишкові графіки: чому графік проти встановлених значень, а не спостережуваних значень
У контексті регресії OLS я розумію, що залишковий графік (проти встановлених значень) умовно розглядається для перевірки на постійну дисперсію та оцінки специфікації моделі. Чому залишки побудовані проти пристосувань, а не значень ? Чим інформація відрізняється від цих двох сюжетів?YYY Я працюю над моделлю, яка створила такі залишкові ділянки: Таким чином, …


4
Як оцінити придатність біноміального GLMM, оснащеного lme4 (> 1.0)?
У мене є GLMM з біноміальним розподілом і функцією logit-ланки, і я маю відчуття, що важливий аспект даних недостатньо добре представлений в моделі. Щоб перевірити це, я хотів би знати, чи добре дані описуються лінійною функцією за шкалою logit. Отже, я хотів би дізнатись, чи добре себе почувають залишки. Однак …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.