Коли припинити вдосконалювати модель?


15

Я вивчаю статистику з багатьох книг протягом останніх 3 років, і завдяки цьому сайту я багато чого навчився. Тим не менш, одне принципове питання для мене все ще залишається без відповіді. На це може бути дуже проста або дуже складна відповідь, але я точно знаю, що це потребує глибокого розуміння статистики.

Пристосовуючи модель до даних, будь то частістський або баєсовський підхід, ми пропонуємо модель, яка може складатися з функціональної форми для вірогідності, попереднього або ядра (непараметричного) тощо. Питання полягає в будь-якій моделі відповідає зразку з деяким рівнем доброти. Завжди можна знайти кращу або гіршу модель порівняно з тим, що зараз є під рукою. В якийсь момент ми зупиняємося і починаємо робити висновки, узагальнюємо параметри сукупності, повідомляємо про довірчі інтервали, обчислюємо ризик тощо. Отже, який би висновок ми не робимо, завжди залежить від моделі, з якою ми вирішили вирішити рішення. Навіть якщо ми використовуємо інструменти для оцінки очікуваної відстані KL, наприклад, AIC, MDL тощо, це не говорить про те, де ми стоїмо на абсолютній основі, а просто покращує нашу оцінку на відносній основі.

Тепер припустимо, що ми хотіли б визначити покрокову процедуру, яка застосовуватиметься до будь-якого набору даних під час побудови моделей. Що слід вказати як правило зупинки? Чи можемо ми принаймні обмежити помилку моделі, яка дасть нам об'єктивну точку зупинки (це відрізняється від зупинки тренувань за допомогою вибірки перевірки, оскільки вона також дає точку зупинки в оціненому класі моделі, а не wrt справжнього DGP)?


1
Я думаю, що вам слід додати інші теги до питання, а не просто висновок, наприклад, деякі теги моделювання та вибір моделі. Я думаю, що це може бути актуальним і для бритви Оккама . Ось також документ, в якому йдеться про байєсівське моделювання.
Гумео

Іноді ви будуєте конкретну модель, тому що це особливо добре для оцінки певних параметрів, а не тому, що ви вважаєте, що загальний розподіл є точним (див. М-оцінка, узагальнені оціночні рівняння) і т. Д. Отже, якщо ви дійсно дбаєте про гідну оцінку місця розташування, вам може бути краще з неправильною моделлю, але такою, яку не легко перекинути шум (для вашого параметра, що цікавить). Загалом, див. Надійна оцінка.

Дуже цікаве запитання. Лише зауваження, що, принаймні, в байєсівській обстановці, також виникає питання про усереднення над правдоподібною підмножиною моделей, а не вибору однієї з них. Я не впевнений у будь-якому теоретичному шляху до питання ОП, і, мабуть, практично це робиться тим, чи підібрана модель є достатньо хорошою для проблеми, яку ми намагаємося вирішити. Можливо, нам потрібен вибір моделі методами MCMC чи щось подібне! Я можу передбачити вкладений підхід MCMC для цього ...
Лука

@Luca Це було зроблено. Однак проблема залишається, оскільки простір моделей, визначений байєсівським попереднім, може містити або не містити справжню модель. Навіть якщо помилка моделі все-таки є, це помилка середньої моделі стосовно справжнього DGP.
Cagdas Ozgenc

1
+1 для запитання. Значною мірою ці проблеми є філософськими або epistemiological, тобто не тільки «то , що ми знаємо , і як ми її знаємо» , але «що може ми знаємо і як можна ми його знаємо?» Як сказав фізик Річард Фейнман, "неможливо знайти відповідь, яка колись не буде визнана помилковою". Іншими словами, і якщо ви не релігійні, виникає обгрунтований сумнів, чи існує однозначна, вічна основна істина, на якій хоч що- небудь прив’язати . .
Майк Хантер

Відповіді:


12

На жаль, це питання не має гарної відповіді. Ви можете вибрати найкращу модель виходячи з того, що вона мінімізує абсолютну помилку, квадратичну помилку, максимально збільшує ймовірність, використовуючи деякі критерії, які карають ймовірність (наприклад, AIC, BIC), щоб згадати лише декілька найбільш поширених варіантів. Проблема полягає в тому, що жоден із цих критеріїв не дозволить вам вибрати об'єктивно найкращу модель, а краще найкращу, з якою ви порівнювали. Ще одна проблема полягає в тому, що під час оптимізації ви завжди можете досягти певного локального максимуму / мінімуму. Ще одна проблема полягає у тому, що вибір критеріїв для вибору моделі є суб'єктивним . У багатьох випадках ви свідомо чи напівсвідомо приймаєте рішення щодо того, що вас цікавить, і вибираєте виходячи з цього критерії. для прикладу, використання BIC, а не AIC призводить до створення парсимоніальніших моделей з меншими параметрами. Зазвичай для моделювання вас цікавлять більш парсимонічні моделі, які призводять до деяких загальних висновків про Всесвіт, тоді як для прогнозування цього не повинно бути таким, а іноді більш складна модель може мати кращу прогностичну силу (але не потрібно і часто це не). В інших випадках, іноді більш складні моделі віддають перевагу з практичних причин, наприклад, при оцінці байєсівської моделі за допомогою MCMC, модель з ієрархічними гіперприорами може вести себе краще в моделюванні, ніж більш проста. З іншого боку, ми, як правило, боїмось надяганняа простіша модель має менший ризик переобладнання, тому це безпечніший вибір. Хороший приклад для цього - автоматичний поетапний вибір моделі, який, як правило, не рекомендується, оскільки це легко призводить до завищених та необ’єктивних оцінок. Існує також філософський аргумент, бритва Оккама , що найпростіша модель є кращою. Зауважте також, що ми тут обговорюємо порівняння різних моделей, тоді як в реальних ситуаціях це також може бути так, що використання різних статистичних інструментів може призвести до різних результатів - тому є додатковий шар вибору методу!

Все це призводить до сумного, але цікавого факту, що ми ніколи не можемо бути впевнені. Ми починаємо з невизначеності, використовуємо методи боротьби з цим і закінчуємо невизначеністю. Це може бути парадоксальним, але нагадайте, що ми використовуємо статистику, тому що вважаємо, що світ непевний і вірогідний (інакше ми обирали б кар'єру пророків), тож як ми могли, нарешті, дійти до різних висновків? Не існує об'єктивного правила зупинки, є кілька можливих моделей, всі вони помиляються (вибачте за кліше!), Оскільки намагаються спростити складну (постійно мінливу та ймовірнісну) реальність. Ми вважаємо, що деякі з них корисніші за інші для наших цілей, а іноді й робимоθмк

Ви можете піти ще глибше і дізнатися, що в реальності не існує такого поняття, як "ймовірність" - це лише деяке наближення невизначеності навколо нас, а також існують альтернативні способи наближення до неї, наприклад, нечітка логіка (див. Косько, 1993 для обговорення). Навіть самі основні інструменти та теореми, на яких ґрунтуються наші методи, є наближеннями і не є єдиними можливими. Ми просто не можемо бути впевнені в таких налаштуваннях.

Правило зупинки, яке ви шукаєте, завжди є конкретним і суб'єктивним, тобто засноване на так званому професійному судження. До речі, є чимало прикладів досліджень, які показали, що професіонали часто не кращі, а іноді навіть гірші у своїх судженнях, ніж непрофесіонали (наприклад, відроджені у паперах і книгах Даніеля Канемана ), при цьому вони більш схильні до переконання (це насправді аргумент, чому ми не повинні намагатися бути «впевненими» у своїх моделях).


Косько, Б. (1993). Нечітке мислення: нова наука нечіткої логіки. Нью-Йорк: Гіперіон.


1
мк

1
Твердження справедливе, коли його припущення виконуються (наприклад, нам надається фіксований зразок, що відповідає дійсності). Якщо вийти з контексту та з порушеннями припущень, це, звичайно, може бути помилковим.
Річард Харді

1
@CagdasOzgenc - це хтось має методологію створення моделі, яка ідеально відображає реальність, ніж немає необхідності в припиненні правила або в вимірюванні помилки моделі - модель ідеальна за визначенням. Якщо ви знаєте , на правила для побудови такої моделі, немає необхідності вимірювати дивергенцію моделі від істинного DGP, так як знаючи істинний DGP просто використовувати ці знання. З іншого боку, якщо ваша модель є спрощенням на основі ваших даних, то застосовуються загальні правила статистики, як описано в моїй відповіді.
Тім

1
@CagdasOzgenc все-таки, якщо ви знаєте "правду", ніж правило зупинки просте: зупиніться, коли ваша модель відповідає "правді". Якщо ви не знаєте, що є правдою, ніж "всі моделі [однаково] неправильно ...", і вам доведеться використовувати статистику. Якщо ви не знаєте, ви не можете виміряти розбіжність у цьому.
Тім

1
@Luca Це означає дуже багато, але це абстрактно.
Тім

4

Існує ціле поле під назвою непараметрична статистика, що дозволяє уникнути використання сильних моделей. Однак ваше занепокоєння щодо примірки моделей, як правило, справедливо. На жаль, не існує механічної процедури встановлення моделей, яка була б загальновизнаною як "оптимальна". Наприклад, якщо ви хочете визначити модель, яка максимально збільшує ймовірність ваших даних, то вас переведе на функцію емпіричного розподілу.

Однак у нас зазвичай є деякі фонові припущення та обмеження, наприклад, безперервні з кінцевими першими та другими моментами. Для таких випадків одним із підходів є вибір такої міри, як диференціальна ентропія Шеннона, та максимізація її у просторі безперервних розподілів, що задовольняє ваші граничні обмеження.

Що я хотів би зазначити, що якщо ви не хочете просто за замовчуванням до ECDF, вам потрібно буде додати припущення, крім даних, щоб потрапити туди, і для цього потрібна експертиза з предметів, і так , жахливий ..... професійний судження

Отже, чи є гарантована зупинка для моделювання ... відповідь - ні. Чи є достатньо хорошого місця для зупинки? Як правило, так, але ця точка буде залежати не тільки від даних та деяких статистичних дезідерата, ви зазвичай збираєтесь враховувати ризики різних помилок, технічні обмеження щодо впровадження моделей та надійність її оцінок, тощо.

Як зазначає @Luca, ви завжди можете оцінювати серед класів моделей, але, як ви справедливо зазначали, це просто підштовхне питання до наступного рівня гіперпараметрів. На жаль, ми, здається, живемо в межах нескінченно шаруватої цибулі ... в обох напрямках!

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.