(Це питання може здатися, що він краще підходить для філософії SE. Я сподіваюся, що статистики зможуть роз'яснити мої помилки щодо тверджень Бокса та Шмуелі, отже, я їх розміщую тут).
Джордж Бокс (про славу ARIMA) сказав:
"Усі моделі помиляються, але деякі корисні."
Галіт Шмулі у своїй знаменитій статті "Пояснити або передбачити" стверджує (і цитує інших, хто з нею згоден), що:
Пояснення та прогнозування - це не те саме, і що деякі моделі роблять хорошу роботу з поясненням, хоча вони і погано працюють при прогнозуванні.
Я відчуваю, що ці принципи якимось чином суперечать.
Якщо модель не прогнозує добре, чи корисна вона?
Що ще важливіше, якщо модель добре пояснює (але не обов'язково прогнозує добре), то вона повинна бути правдою (тобто не помилкою) в тій чи іншій мірі. То як ця сітка з Box "усі моделі помиляються"?
Нарешті, якщо модель добре пояснює, але не прогнозує добре, як це навіть науково? Більшість критеріїв наукової демаркації (верифікація, фальсифікація тощо) свідчать про те, що наукове твердження повинно мати прогностичну силу або розмовно: Теорія чи модель є правильною лише тоді, коли вона може бути емпірично перевірена (або підроблена), що означає, що вона має передбачити майбутні результати.
Мої запитання:
- Чи заява Бокса та ідеї Шмуелі дійсно суперечливі, чи я щось пропускаю, наприклад, чи може модель ще не мати передбачувальну силу, але все ще може бути корисною?
- Якщо висловлювання Бокса і Шмуелі не суперечать один одному, то що означає, що модель помиляється і не прогнозує добре, але все ще має пояснювальну силу? По-іншому: якщо забирати і правильність, і здатність прогнозування, що залишилося від моделі?
Які емпіричні валідації можливі, коли модель має пояснювальну силу, але не прогностичну силу? Шмуелі згадує такі речі: використовуйте AIC для пояснення, а BIC - для прогнозування тощо, але я не бачу, як це вирішує проблему. Для прогнозних моделей ви можете використовувати AIC, або BIC, або , або регуляризацію тощо, але в кінцевому підсумку вибірка випробувань та продуктивність у виробництві - це те, що визначає якість моделі. Але для моделей, які добре пояснюють, я не бачу, як будь-яка функція втрат може справді оцінити модель. У філософії науки існує поняття недовизначеннящо здається доречним тут: Для будь-якого даного набору даних завжди можна з розумом вибрати деякий розподіл (або суміш розподілів) і функцію втрати таким чином, щоб вони відповідали даним (і тому можна стверджувати, що це пояснюють). Більше того, поріг, за яким повинен бути для того, щоб хтось стверджував, що модель адекватно пояснює дані, є довільними (на кшталт p-значень, чому це а не або ?).
- Виходячи з вищесказаного, як можна об'єктивно підтвердити модель, яка добре пояснює, але не прогнозує добре, оскільки тестування зразка неможливе?