І B, і E походять від V. B і E явно не є справді "незалежними" змінними одна від одної. Основна змінна, яка насправді має значення, це V. Ви, мабуть, повинні відмовитися від B і E в цьому випадку і зберегти лише V.
У більш загальній ситуації, коли у вас є дві незалежні змінні, які дуже сильно корелюються, вам, безумовно, слід видалити одну з них, оскільки ви потрапили в загадку мультиколінеарності, а коефіцієнти регресії вашої моделі регресії, пов'язані з двома сильно корельованими змінними, будуть ненадійними. Крім того, простою англійською мовою, якщо дві змінні настільки сильно співвіднесені, вони, очевидно, передадуть майже таку саму інформацію у вашу регресійну модель. Але, включивши обидва, ви фактично послаблюєте модель. Ви не додаєте додаткову інформацію. Натомість ви нагнітаєте вашу модель шумом. Недобра річ.
Один із способів збереження сильно корельованих змінних у вашій моделі - це використання замість регресії моделі аналізу основних компонентів (PCA). Моделі PCA створені для позбавлення від мультиколінеарності. Компроміс полягає в тому, що ви, в кінцевому підсумку, маєте два-три основні компоненти у вашій моделі, які часто є лише математичними конструкціями і є практично незрозумілими в логічному плані. Таким чином, PCA часто відмовляється від методу, коли вам доведеться представити свої результати зовнішній аудиторії, такі як управління, регулятори тощо ... Моделі PCA створюють чорні скриньки, які дуже складно пояснити.