Це правда, що припущення про лінійну регресію не реалістичні. Однак це стосується всіх статистичних моделей. "Усі моделі помиляються, але деякі корисні."
Я думаю, ти відчуваєш, що немає причин використовувати лінійну регресію, коли ти можеш використовувати більш складну модель. Це неправда, тому що в цілому більш складні моделі більш вразливі до переозброєння, і вони використовують більше обчислювальних ресурсів, які важливі, якщо, наприклад, ви намагаєтеся робити статистику на вбудованому процесорі чи веб-сервері. Простіші моделі також легше зрозуміти та інтерпретувати; навпаки, складні моделі машинного навчання, такі як нейронні мережі, як правило, стають чорними полями, більш-менш.
Навіть якщо лінійна регресія коли-небудь стане практично не корисною (що здається надзвичайно малоймовірною в майбутньому), вона все одно буде теоретично важливою, оскільки більш складні моделі, як правило, будуються на лінійній регресії в якості основи. Наприклад, щоб зрозуміти регульовану логістичну регресію зі змішаними ефектами, потрібно спочатку зрозуміти просту стару лінійну регресію.
Це не означає, що складніші, новіші та блискучі моделі не є корисними та важливими. Багато з них є. Але простіші моделі більш широко застосовуються і, отже, важливіші, і, очевидно, має сенс представити перше, якщо ви збираєтеся представити різноманітні моделі. Існує багато поганих аналізів даних, проведених цими днями людьми, які називають себе "науковцями даних" чи іншим, але навіть не знають основоположних речей, як, наприклад, що таке інтервал довіри. Не будьте статистикою!