Припустимо, два прогноктори сильно впливають на відповідь, але сильно корелюються у вибірці, з якої ви будуєте свою модель. Якщо ви випадете з моделі, вона не спрогнозує добре для зразків з подібних сукупностей, у яких прогноктори не сильно корелюються.
Якщо ви хочете підвищити точність оцінок коефіцієнта за наявності мультиколінеарності, вам доведеться ввести трохи упередження, відключивши його за рахунок більшого зменшення дисперсії. Один із способів полягає в тому, щоб повністю видалити предиктори - за допомогою LASSO, або, за старих часів, поетапними методами -, який встановлює їхні оцінки коефіцієнта до нуля. Інша полягає в тому, щоб трохи змінити всі оцінки - з регресією хребта, або, за старих часів, регресуванням на перших кількох основних компонентах. Недоліком першого є те, що це дуже небезпечно, якщо модель буде використовуватися для прогнозування відповідей для прогнозованих моделей подалі від тих, що мали місце в оригінальній вибірці, тому що прогноктори, як правило, виключаються тільки тому, що вони не дуже використовують разом з іншими, майже колінеарні, прогнози. (Не те, що екстраполяція ніколи не є повністю безпечною.) Еластична сітка - це суміш цих двох, як пояснює @ user12436, і прагне зберігати групи корельованих предикторів у моделі.