Запитання з тегом «multicollinearity»

Ситуація, коли між змінними провісника є сильна лінійна залежність, так що їх кореляційна матриця стає (майже) сингулярною. Цей «поганий стан» ускладнює визначення унікальної ролі, яку грає кожен з прогнозів: виникають проблеми з оцінкою та збільшуються стандартні помилки. Одним із прикладів мультиколінеарності є двоваріантно дуже високі корельовані предиктори.

3
Як систематично видаляти колінеарні змінні в Python? [зачинено]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закрито 2 роки тому . Поки що я видалив колінеарні змінні як частину процесу підготовки даних, переглянувши таблиці кореляції та усунувши змінні, що перевищують певний поріг. Чи …

2
Якісне кодування змінної в регресії призводить до "особливості"
У мене є незалежна змінна назва "якість"; ця змінна має 3 способи реагування (погана якість; середня якість; висока якість). Я хочу ввести цю незалежну змінну в свою багаторазову лінійну регресію. Коли у мене є двійкова незалежна змінна (фіктивна змінна, я можу кодувати 0/1 ), її легко ввести в модель множинної …

1
Логістична регресія - проблеми багатоколірності / підводні камені
У логістичній регресії, чи потрібно так сильно піклуватися про мультиколінеарність, як ви б в прямому регресії OLS? Наприклад, з логістичною регресією, де існує мультиколінеарність, вам потрібно бути обережними (як у регресії OLS) з прийняттям висновку з коефіцієнтами бета-версії? Для регресії OLS одним із "фіксів" до високої мультиколінеарності є регрес хребта, …

3
Коли можна говорити про колінеарність
У лінійних моделях нам потрібно перевірити, чи існує взаємозв'язок між пояснювальними змінними. Якщо вони співвідносяться занадто сильно, то виникає колінеарність (тобто змінні частково пояснюють одна одну). На даний момент я просто розглядаю парне співвідношення між кожною з пояснювальних змінних. Питання 1: Що класифікується як занадто велика кореляція? Наприклад, чи є …

1
Чому ця регресія НЕ провалюється через ідеальну мультиколінеарність, хоча одна змінна є лінійною комбінацією інших?
Сьогодні я розігрувався з невеликим набором даних і здійснив просту регресію OLS, яка, як я очікувала, вийде з-за ідеальної мультиколінеарності. Однак цього не сталося. Це означає, що моє розуміння мультиколінеарності неправильне. Моє запитання: де я помиляюся? Я думаю, що можу показати, що одна з моїх змінних є лінійною комбінацією інших. …

1
Яка інтуїція за обмінними зразками під нульовою гіпотезою?
Перестановочні тести (також називаються тестом рандомизації, тестом на повторну рандомізацію або точним тестом) дуже корисні і корисні, коли припущення про нормальний розподіл, необхідне, наприклад, t-testне виконується, і при перетворенні значень за ранжуванням непараметричний тест, як-от Mann-Whitney-U-test, призведе до втрати більше інформації. Однак одне і єдине припущення не слід оминути увагою …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
VIF, індекс стану та власні значення
Наразі я оцінюю багатоколірність у своїх наборах даних. Які порогові значення VIF та індекс стану нижче / вище говорять про проблему? VIF: Я чув, що VIF - це проблема.≥ 10≥10\geq 10 Після видалення двох проблемних змінних, VIF становить для кожної змінної. Чи потребують змінних більше лікування чи цей VIF здається …

1
Чому регрес Рейда добре працює за наявності мультиколінеарності?
Я дізнаюсь про регресію хребта і знаю, що регресія хребта працює краще за наявності мультиколінеарності. Мені цікаво, чому це правда? Буде задовольняти або інтуїтивна відповідь, або математична (обидва типи відповідей будуть ще більш задоволеними). Крім того , я знаю, що β завжди можна отримати, але наскільки добре хребет регресія робота …

3
Чи потрібно скидати змінні, які є кореляційними / колінеарними, перш ніж запускати kmeans?
Я запускаю kmeans, щоб визначити кластери клієнтів. У мене є приблизно 100 змінних для ідентифікації кластерів. Кожна з цих змінних становить відсоток витрат клієнта на категорію. Отже, якщо у мене є 100 категорій, у мене є ці 100 змінних, що сума цих змінних становить 100% для кожного клієнта. Тепер ці …

4
Чи варто турбуватися про мультиколінеарність при використанні нелінійних моделей?
Скажімо, у нас є проблема бінарної класифікації з переважно категоричними ознаками. Ми використовуємо деяку нелінійну модель (наприклад, XGBoost або Random Forests), щоб дізнатися її. Чи варто все-таки турбуватися про багатоколірність? Чому? Якщо відповідь на вищезазначене відповідає дійсності, як з цим боротися, враховуючи, що використовуються ці типи нелінійних моделей?

2
Лінійна регресія, коли ви знаєте лише , а не безпосередньо
Нехай .Xβ=YXβ=YX\beta =Y Ми не знаємо точно, тільки його кореляції з кожним предиктором, .YYYXtYXtYX^\mathrm{t}Y Звичайним рішенням найменших квадратів (OLS) є і проблеми не виникає.β=(XtX)−1XtYβ=(XtX)−1XtY\beta=(X^\mathrm{t} X)^{-1} X^\mathrm{t}Y Але припустимо, що близький до сингулярності (мультиколінеарність), і вам потрібно оцінити оптимальний параметр хребта. Всі методи , здається, потрібні точні значення .XtXXtXX^\mathrm{t}XYYY Чи існує …

2
Що таке тести на шматки?
Відповідаючи на запитання щодо вибору моделі за наявності мультиколінеарності , Френк Харрелл запропонував : Помістіть усі змінні в модель, але не перевіряйте ефект однієї змінної, скоригованої на ефекти конкуруючих змінних ... Тести блоку конкуруючих змінних є потужними, оскільки колінеарні змінні об'єднують сили в загальний тест на асоціацію множинного ступеня свободи, …

6
Мультиколінеарність, коли індивідуальні регресії суттєві, але ВІФ низькі
У мене є 6 змінних ( ), які я використовую для прогнозування . Виконуючи аналіз даних, я спершу спробував багаторазову лінійну регресію. З цього значення мали лише дві змінні. Однак, коли я провів лінійну регресію, порівнюючи кожну змінну окремо з , всі, крім однієї, були значущими ( десь від менш …

3
Як можна обробляти нестабільні оцінки в лінійній регресії з високою мультиколінеарністю без викидання змінних?
Бета-стабільність при лінійній регресії з високою мультиколінеарністю? Скажімо, в лінійній регресії змінні і x_2 мають високу мультиколінеарність (кореляція становить близько 0,9).х 2x1x1x_1x2x2x_2 Ми стурбовані стабільністю коефіцієнта ββ\beta тому нам доводиться ставитись до багатоколінеарності. Рішенням підручника було б просто викинути одну зі змінних. Але ми не хочемо втрачати корисну інформацію, просто …

2
Справа з мультиколінеарністю
Я дізнався, що, використовуючи vif()метод carпакету, ми можемо обчислити ступінь мультиколінеарності вхідних даних у моделі. З вікіпедії , якщо vifзначення більше, ніж 5тоді, ми можемо вважати, що вхід страждає від проблеми мультиколінеарності. Наприклад, я розробив лінійну регресійну модель за допомогою lm()методу і vif()дає наступне. Як ми можемо бачити, входи ub, …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.