Чому мої VAR-моделі краще працюють з нестаціонарними даними, ніж стаціонарні?


9

Я використовую VT-бібліотеку статистичних моделей python для моделювання даних фінансових часових рядів, і деякі результати мене здивували. Я знаю, що моделі VAR припускають, що дані часових рядів є нерухомими. Я ненавмисно помістив нестаціонарну серію цін журналів на два різні цінні папери, і на диво пристосовані значення та вибіркові прогнози були дуже точними з відносно незначними, нерухомими залишками. на прогнозі в-зразок становив 99% , а стандартне відхилення прогнозу залишкової серії становило близько 10% від прогнозних значень.R2

Однак, коли я відрізняю ціни на журнал і підхожую цей часовий ряд до моделі VAR, встановлені та прогнозні значення далекі від позначки, підстрибуючи в тісному діапазоні навколо середнього. В результаті залишки виконують кращу роботу прогнозування повернень журналу, ніж встановлені значення, при цьому стандартне відхилення залишків прогнозу на 15X більше, ніж встановлений ряд даних, значення .007 для серії прогнозів.R2

Я неправильно трактую примірник проти залишків на моделі VAR або роблю якусь іншу помилку? Чому нестаціонарний часовий ряд призведе до більш точних прогнозів, ніж стаціонарний на основі одних і тих же базових даних? Я добре працював з моделями ARMA з тієї ж бібліотеки python і не бачив нічого подібного до моделювання даних про одну серію.


5
Два факти: (1) Якщо ви регресуєте одну випадкову прогулянку на іншій випадковій прогулянці і неправильно припускаєте стаціонарність, ви майже завжди отримуєте високо статистично значущі результати, навіть якщо це незалежні процеси! . (2) Якщо дві змінні об'єднані , ви можете регресувати одну на іншу, і ваш оцінювач збіжиться швидше, ніж звичайна регресія, результат відомий як суперконсистенція.
Меттью Ганн

Дуже дякую. Факт №1 безумовно пояснює результати нестаціонарного ряду. Результати стаціонарних серій, безумовно, діють так, ніби вони показують те, що ви назвали супер-консистенцією, за винятком того, що, наскільки я можу сказати, ці дві серії не є спільно інтегрованими. Я провів лінійну регресію на двох цінових рядах, і залишки були далеко не нерухомими. Тож я повинен був би припустити, що модель VAR прогнозується настільки погано, оскільки дві серії повернення не є сильно взаємозалежними. Тест грейнджера також підтверджує це.
jpeginternet

@MatthewGunn, ваш коментар може краще відповісти як відповідь.
Річард Харді

Відповіді:


9

Два факти:

  1. Коли ви регресуєте одну випадкову прогулянку на іншу випадкову прогулянку і неправильно припускаєте стаціонарність, ваше програмне забезпечення, як правило, відкидає статистично значущі результати, навіть якщо це незалежні процеси! Наприклад, див. Ці конспекти лекцій. (Google з’явиться для помилкової випадкової прогулянки та численних посилань.) Що відбувається не так? Звичайна оцінка OLS та стандартні помилки базуються на припущеннях, які не відповідають дійсності у випадку випадкових прогулянок.

    Прикидаючись до звичайних припущень OLS, застосуйте, а регресування двох незалежних випадкових прогулянок один на одного, як правило, призведе до регресії з величезними , дуже значущими коефіцієнтами, і все цілком хибно! Коли відбувається випадкова прогулянка і ви здійснюєте регресію в рівнях, звичайні припущення для OLS порушені, ваша оцінка не збігається як , звичайна теорема про центральний межа не застосовується, а t-stats і p-значення ваша регресія випльовує - це все неправильно .R2t

  2. Якщо дві змінні інтегруються , ви можете регресувати одну на іншу, і ваш оцінювач збіжиться швидше, ніж звичайна регресія, результат відомий як суперконсистенція. Напр. оформити книгу "Часові серії" Джона Кокрана в Інтернеті та шукати "суперечливі"

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.