Регуляризація для моделей ARIMA


15

Я знаю про регуляризацію типу LASSO, хребет та еластичну сітку в моделях лінійної регресії.

Питання:

  1. Чи можна застосувати цей (або подібний) вид пеналізованої оцінки до моделювання ARIMA (з не порожньою частиною МА)?

pмахqмахppмахqqмах наприклад, мінімізуючи AIC або AICc . Але чи можна замість цього використовувати регуляризацію?

Мої подальші запитання :

  1. Чи можемо ми включати всі терміни до ( , ), але штрафувати розмір коефіцієнтів (можливо, до нуля)? Це має сенс? q m a xpмахqмах
  2. Якщо це було б, чи реалізовано це в R чи іншому програмному забезпеченні? Якщо ні, то в чому біда?

Дещо пов’язаний пост можна знайти тут .


1
+1 за дуже гарне запитання. Оскільки P, Q - це дискретні значення, можливо, буде більш ефективним пошук сітки для пошуку оптимального порядку P, Q?
синоптик

2
Я радий, що тобі сподобалось! Так, пошук по сітці - це один із варіантів у рамках, який я називаю "звичайним". Там можна шукати по сітці можливих комбінацій від ( 0 , 0 ) до ( p m a x , q m a x ) . Однак це все ще є частиною "звичайних рамок". Як альтернатива, мені цікаво зберегти всі відставання, але штрафувати розмір коефіцієнтів. (p,q)(0,0)(pmax,qmax)
Річард Харді

1
columbia.edu/~sn2294/papers/forecast.pdf Імовірно, LASSO працює краще, оскільки ви можете пропустити деякі відставання, а не ставити максимум. Те ж саме може зробити AIC, але тоді це обчислюється дорого.
Cagdas Ozgenc

1
@CagdasOzgenc, я проглянув документ, але, схоже, це не стосується регуляризації, застосованої на моделях ARIMA (хоча вона згадує моделі ARMA в контексті інформаційних критеріїв). Не могли б ви вказати, яка частина статті відповідає моїм питанням?
Річард Харді

1
5.3 таблиця містить моделі ARMAX. Результати стосуються моделей ARMA.
Cagdas Ozgenc

Відповіді:


9

Відповідь на питання 1.

Chen & Chan "Вибір підмножини ARMA за допомогою адаптивного Лассо" (2011) * використовуйте рішення, щоб уникнути обчислювально вимогливої ​​оцінки максимальної вірогідності. Посилаючись на папір, вони

пропонуємо знайти оптимальну модель підмножини ARMA, встановивши адаптивну регресію Лассо часового ряду на власні лаги та залишки, отримані від пристосування тривалої авторегресії до y t s. <...> [У] більш легких умовах регулярності запропонований метод досягає властивостей oracle, а саме він визначає правильну модель підмножини ARMA з ймовірністю, що має тенденцію до одиниці, оскільки розмір вибірки збільшується до нескінченності, і <...> Оцінювачі ненульових коефіцієнтів асимптотично нормальні, а граничне розподіл такий самий, як коли апріорно відомі нульові коефіцієнти.ytyt

За бажанням вони пропонують максимальну оцінку ймовірності та діагностику моделі для вибраних підмножинних моделей ARMA.


Вілмс та ін. "Рідка ідентифікація та оцінка високовимірних векторних авторегресивних рухомих середніх" (2017) роблять навіть більше, ніж я просив. Замість універсальної моделі ARIMA вони беруть векторну ARMA (VARMA) у великих розмірах, і вони використовують L1 штраф для оцінки і лаг вибору замовлення. Вони представляють алгоритм оцінки та розробляють деякі асимптотичні результати.

Зокрема, вони використовують двоетапну процедуру. Розглянемо модель VARMA яку потрібно оцінити, але порядки відставання p і q невідомі.

yt=l=1pΦlytl+m=1qΘmεtm+εt
pq
  • На етапі 1 вони наближають модель VARMA за допомогою моделі VAR високого порядку та оцінюють її за допомогою ієрархічного оцінювача VAR, який встановлює ієрархічне покарання групової ласо-групи на відставання за параметрами авторегресії.
    (Для лагового порядку встановлено значення . Модельні рівняння оцінюються спільно, а норма Фробеніуса помилок| | у - у | | F 2 зведениймінімуму з ієрархічним груповий Lasso штрафом на коефіцієнтах регресії). Вони отримують нев'язки е :=у - у , які будуть використовуватисяякості проксі для справжніх помилок в стадії 2.1.5T||yy^||2F
    ε^:=yy^

  • На етапі 2, вони оцінюють модель VARX , де Х являє собою лаг залишки зі стадії 1. Тобто, вони Minic моделі VARMA , але використання оцінками залишків замість справжніх помилок, що дозволяє застосовувати один і той же оцінювач (ієрархічної групи-ласо) знову так само , як в стадії 1 ( р і д

    yt=l=1p^Φlytl+m=1q^Θmε^tm+ut,

    p^q^встановлюється .)1.5T

Підхід Вілмса та ін. буде реалізований в R пакет «Bigtime» .


Список літератури


* Дякуємо @hejseb за посилання.


2
Цей робочий документ дуже свіжий, розміщений на arXiv лише вчора.
Річард Харді

Чи є реалізація в python або R?
Девід Масіп

@DavidMasip, дивіться оновлений пост для реалізації R.
Річард Харді
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.