Яка / механічна різниця між множинною лінійною регресією із лагами та часовими рядами?


14

Я випускник бізнесу та економіки, який зараз навчається на ступінь магістра з інженерії даних. Під час вивчення лінійної регресії (LR), а потім аналізу часових рядів (TS) у мене в голові з’явилося запитання. Навіщо створювати абсолютно новий метод, тобто часовий ряд (ARIMA), замість того, щоб використовувати кілька лінійних регресій і додавати до нього відсталі змінні (з порядком відставання, визначеним за допомогою ACF і PACF)? Тож викладач запропонував мені написати невеликий твір про проблему. Я б не прийшов шукати допомоги з порожніми руками, тому я зробив своє дослідження на цю тему.

Я вже знав, що при використанні LR, якщо припущення Гаусса-Маркова порушені, регресія OLS неправильна, і що це відбувається при використанні даних часових рядів (автокореляція тощо). (Ще одне питання з цього приводу, одне припущення GM полягає в тому, що незалежні змінні повинні нормально розподілятися? або просто залежна змінна, що залежить від незалежних?)

Я також знаю, що при використанні розподіленої регресії відставання, що, на мою думку, я пропоную тут, і використовуючи OLS для оцінки параметрів, може (очевидно) виникнути мультиколінеарність між змінними, тому оцінки будуть неправильними.

У подібному дописі про TS і LR тут @IrishStat сказав:

... модель регресії - це окремий випадок моделі функції передачі, яка також відома як модель динамічної регресії або модель XARMAX. Важливим моментом є те, що ідентифікація моделі у часових рядах, тобто відповідні відмінності, відповідні відставання X, відповідна структура ARIMA, відповідна ідентифікація не визначеної детермінованої структури, таких як імпульси, зрушення рівня, локальні тенденції часу, сезонні імпульси та включення зміни параметрів або відхилення помилок повинні враховуватися.

(Я також читав його статтю в Автобоксі про Box Jenkins vs LR.) Але це все ще не вирішує мого питання (або, принаймні, не роз'яснює різні для мене механіки RL та TS).

Очевидно, що навіть із відсталими змінними OLS виникають проблеми, і це не ефективно, ані правильно, але, використовуючи максимальну ймовірність, ці проблеми зберігаються? Я читав, що ARIMA оцінюється через максимальну ймовірність, тому, якщо LR з лагами оцінюється з ML замість OLS, чи дає це "правильні" коефіцієнти (припустимо, що ми також включаємо терміни з відсталими помилками, як МА порядку q).

Словом, проблема OLS? Чи вирішена проблема із застосуванням ML?


4
Незвична схожість з Джоном Мейнардом Кейнсом.
Нік Кокс

Привіт @NickCox, так, він є моїм фаворитом економістом, я думаю, що він був дивовижною людиною і багато в чому надзвичайно талановитим ... будь-яка допомога в моєму питанні? Я намагаюся розібратися, - чому модель, що відстає, не працює з оцінкою OLS, і якщо вона оцінить правильно з максимальною оцінкою ймовірності. Я розумію, що найкраща модель - це функція передачі, і зараз я її вивчаю. Але теоретичне питання все ще залишається щодо OLS. Якби автокореляція не була причиною того, що лаги усунуть її (припустимо також, що мультиколл. Немає), чи працювало б воно? або є ще і лежить в основі
Мігель М.

@ NickCox ... ефект / порушення гауссових припущень, з якими OLS не може працювати і що не може бути встановлено цим методом? Як ви бачите, я трохи розгубився з цим, якщо його занадто довго відповідати, будь ласка, якщо ви можете прочитати лекцію, яка могла б просвітлити, я теж вдячний
Мігель М.

1
З точки зору механіки дозвольте мені припустити, що модель ARMA для запропонованого користувачем (належним чином різниться) змінної X відображає нестаціонарність. Якщо цей фільтр застосований до BOTH відповідним чином розрізненим серіям, отримана пара серій часто може бути вивчена за допомогою процедур перехресної кореляції. отримання запропонованої структури відставання (розуміння). Цю структуру відставання потім можна застосувати до відповідним чином різним оригінальним рядом, щоб дати пропозицію про не визначений / фоновий ряд (попередній процес помилки.). Цей процес помилок може бути вивчений для отримання відповідної ARMA.
IrishStat

@IrishStat, тому, будь ласка, дозвольте мені перефразувати те, що ви сказали. Будемо мати залежну змінну Yt і незалежну змінну Xt, ми відрізняємо і Yt, і Xt, поки не будемо стаціонарними в обох, і тоді ми можемо застосувати функцію перехресної кореляції для з'ясування структури відставання. Потім регресуємо Yt до Xt і вивчаємо термін помилки. Якщо ми знайдемо структуру ARMA в терміні помилки, застосовуємо її в моделі, поки у нас не з’явиться білий шум, правда? Але все ще моє запитання, чи є остання модель, встановлена ​​через OLS? Якщо ні, то чому б ні, і який метод ми використовуємо?
Мігель М.

Відповіді:


9

Навіщо створювати абсолютно новий метод, тобто часовий ряд (ARIMA), замість того, щоб використовувати кілька лінійних регресій і додавати до нього відсталі змінні (з порядком відставання, визначеним за допомогою ACF і PACF)?

β^OLS=(XX)1XyXі, отже, оцінювач OLS нездійсненний.

одне припущення GM полягає в тому, що незалежні змінні повинні нормально розподілятися? чи просто залежна змінна, що залежить від незалежної?

Припущення про нормальність іноді викликається помилками моделі, а не для незалежних змінних. Однак нормальність не потрібна ні для послідовності та ефективності оцінки ОЛС, ні для теореми Гаусса-Маркова. У статті Вікіпедії на теорему Гаусса-Маркова прямо вказано, що "помилки не повинні бути нормальними".

(очевидно) може виникнути мультиколінеарність між змінними, тому оцінки будуть неправильними.

Високий ступінь мультиколінеарності означає завищену дисперсію OLS-оцінки. Однак Оцінювач OLS все ще є СВІМОЮ, доки мультиколінеарність не є ідеальною. Таким чином, ваше твердження не виглядає правильним.

Очевидно, що навіть із відсталими змінними OLS виникають проблеми, і це не ефективно, ані правильно, але, використовуючи максимальну ймовірність, ці проблеми зберігаються?

Модель AR може бути оцінена за допомогою OLS та ML; обидва ці методи дають послідовні оцінки. Моделі MA та ARMA не можуть бути оцінені OLS, тому ML є основним вибором; знову ж таки, це послідовно. Інша цікава властивість - це ефективність, і тут я не зовсім впевнений (але, очевидно, інформація повинна бути десь доступною, оскільки питання досить стандартне). Я б спробував коментувати "правильність", але я не впевнений, що ви маєте на увазі під цим.


Привіт, містер Харді, дуже дякую за відповідь. Щодо спостережуваних та неспостережуваних значень, просто підсумовуючи. У ARIMA та часових рядах (більш конкретно XARIMAX) ми використовуємо "динамічний" підхід, оскільки ми використовуємо помилку прогнозування, а в лінійній регресії ми їх не використовуємо - але ми все-таки могли їх використовувати. Я не розумію тоді питання тут. Або, як говорить @IrishStat, єдиною різницею є шлях до ідентифікації та моделювання стратегій перегляду?
Мігель М.

А як щодо оцінки, чи правильний OLS (знову ж таки) правильний, якщо включати відсталі помилки в модель? Щодо мультиколінарності, я мав на увазі, що оцінені коефіцієнти можуть бути невірними, оскільки їх оцінка має велику дисперсію. Правильним методом я мав на увазі, якщо використання OLS дає неупереджені та ефективні оцінки порівняно з ML при використанні запропонованих моделей, що відстають.
Мігель М.

@MiguelM, я зараз подорожую, спробую повернутися пізніше.
Річард Харді

1
Що стосується "лінійної регресії, ми їх не використовуємо, але ми все-таки можемо використовувати їх": ми не спостерігаємо цих змінних, а значить, вони не можуть бути використані в рамках лінійної регресії завдяки механіці, що там є (як я зазначив у відповіді, оцінювач нездійсненний); однак їх можна використовувати в рамках ARIMA. Що стосується "чи правильно OLS (знову), якщо включати відсталі помилки в модель?", Так, це повинно бути правдою. Що стосується "коректності", якщо модель вказана правильно, і OLS, і ML є здійсненними, обидва повинні працювати добре. За неправильною специфікою речі мають тенденцію піти не так.
Річард Харді

1
y=β0+β1x+εxy=β0+β1x+εx

5

Це чудове запитання. Справжня різниця між моделями ARIMA та множинною лінійною регресією полягає у вашій структурі помилок. Ви можете маніпулювати незалежними змінними в моделі лінійної регресії, щоб вони відповідали вашим даним часових рядів, про що говорить @IrishStat. Однак після цього вам потрібно включити помилки ARIMA у вашу модель множинної регресії, щоб отримати правильний коефіцієнт та результати тесту. Чудова безкоштовна книга про це: https://www.otexts.org/fpp/9/1 . Я зв'язав розділ, який обговорює комбінування моделей ARIMA та множинної регресії.


1

Хороше запитання, я фактично будував обох у своїй щоденній роботі на посаді вченого даних. Моделі часових рядів легко побудувати (пакет прогнозу в R дозволяє створити один за менше 5 секунд), такий же або точніший, ніж регресійні моделі тощо. Загалом, завжди слід будувати часові ряди, а потім регресію. Є і філософські наслідки часових рядів, якщо ви можете передбачити, нічого не знаючи, то що це означає?

Моє взяти на себе Дарлінгтон. 1) "Регресія є набагато гнучкішою та потужнішою, створюючи кращі моделі. Ця точка розвивається у численних місцях протягом усієї роботи".

Ні, зовсім навпаки. Регресійні моделі роблять набагато більше припущень, ніж моделі часових рядів. Чим менше припущень, тим більше ймовірність здатності протистояти землетрусу (зміна режиму). Крім того, моделі часових рядів реагують швидше на раптові зрушення.

2) "Регресію набагато легше освоїти, ніж ARIMA, принаймні для тих, хто вже знайомий із застосуванням регресії в інших областях." Це кругові міркування.

3) "Регресія використовує" закритий "обчислювальний алгоритм, який, по суті, гарантовано дає результати, якщо це можливо, в той час як ARIMA та багато інших методів використовують ітеративні алгоритми, які часто не вдається досягти рішення. Я часто бачив метод ARIMA" зависання "щодо даних, які не давали проблем регресії."

Регресія дає відповідь, але чи це правильна відповідь? Якщо я будую моделі лінійної регресії та машинного навчання, і всі вони приходять до одного висновку, що це означає?

Отже, підсумовуючи, так, регресія та часові ряди можуть відповідати на одне і те ж питання, а технічно часові ряди - це технічно регресія (хоча і авторегресія). Моделі часових рядів менш складні і, отже, більш надійні, ніж регресійні. Якщо ви думаєте про спеціалізацію, то моделі TS спеціалізуються на прогнозуванні, тоді як регресія спеціалізується на розумінні. Це зводиться до того, чи хочете ви пояснити чи передбачити.


1
"Моделі часових рядів менш складні і, отже, більш надійні, ніж регресійні моделі" .... Те, що ви хотіли сказати, було "моделі ARIMA менш складні і, отже, більш надійні, ніж регресійні моделі". Включення ARIMA та регресія називається моделями функцій передачі ..., то тоді розумним вибором є поєднання як розуміння (регресії), так і невідомих / не визначених фонових факторів (ARIMA).
IrishStat

2
@IrishStat Привіт, містере Рейлі, я читав ваші відповіді на декілька публікацій тут у stackexchange, а також читав багато робіт у автобоці, а також посилання на курс часового ряду блоку живлення, але все ще не зрозуміти, чому (або якщо) лінійна регресія (за допомогою OLS) із застосуванням лагованих змінних та термінів помилок із затримкою, якщо це необхідно, не буде працювати
Мігель М.

@IrishStat Це метод OLS, який не працює?
Мігель М.

1
Ірландська держава, щоб розширити свою точку зору, метою було б причинність Грейнджера. Наприклад, навіть якщо коефіцієнт є статистично значущим, він може бути не обов'язково значущим для підвищення точності прогнозу. У своєму дослідженні я виявив, що регресійні моделі (лінійні, ласо тощо), як правило, говорять про те, що речі важливіші, ніж є насправді, тоді як випадковий ліс має тенденцію їх знижувати та визначати справжні важелі. Також випадковий ліс має таку саму точність вибірки, що і лінійні моделі. Єдиним недоліком є ​​те, що ви не можете сказати, які саме є коефіцієнти.
Прихований Марків Модель

2
@MiguelM. Це, безумовно, може спрацювати, тому що функція передачі є поліноміальною розподіленою затримкою, можливо, включає емпірично виявлені зрушення рівня / тенденції часу / сезонні імпульси під час коригування імпульсів (одноразові аномалії). Я думаю, що головна відмінність полягає у шляху до ідентифікації та перегляду моделей стратегій
IrishStat

0

На думку, найглибша різниця між передавальними функціями та багатоступеневою лінійною регресією (у звичайному її використанні) полягає у їхніх цілях, множинні регресії орієнтовані на пошук основних причинно-наслідкових визначників залежної змінної, тоді як функції передачі просто хочуть прогнозувати вплив на залежний змінна варіації конкретної екзогенної змінної ... Підсумовуючи, множинна регресія орієнтована на вичерпне пояснення та передачу функції прогнозуванню дуже специфічних ефектів ...


Я не думаю, що це досить точно, тому що обидва способи дають коефіцієнти виходу, які насправді можна інтерпретувати. Крім того, функції передачі DO значною мірою покладаються на причинно-наслідковий аналіз і насправді краще розрізняти такі, як множинна лінійна регресія. Також ця публікація вимагає механічних / методологічних відмінностей між такими двома методами
Мігель М.
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.