Впорядкування часових рядів для машинного навчання


14

Прочитавши один із "порад щодо досліджень" Р. Дж. Хайндмана про перехресну перевірку та часові ряди, я повернувся до старого мого питання, яке я спробую сформулювати тут. Ідея полягає в тому, що при проблемах класифікації чи регресії впорядкування даних не має важливого значення, і, отже, може бути використана k- кратна перехресна перевірка. З іншого боку, у часових рядах очевидно важливе впорядкування даних.

Однак, при використанні машинного навчання моделі для прогнозування часових рядів, загальна стратегія , щоб змінити ряд у набір "векторів вводу-виводу", які за час мають вигляд .{y1,...,yT}t(ytn+1,...,yt1,yt;yt+1)

Тепер, якби це переформування було зроблено, чи можемо ми вважати, що отриманий набір "векторів вводу-виводу" не потрібно замовляти? Якщо ми, наприклад, використовуємо нейронну мережу, що рухається вперед, з n входами, щоб "вивчити" ці дані, ми б дійшли до тих же результатів, незалежно від того, в якому порядку ми показуємо вектори моделі. І отже, чи можемо ми використати k-кратну перехресну валідацію стандартним способом, не потребуючи щоразу переставляти модель?

Відповіді:


2

Відповідь на це запитання полягає в тому, що це буде добре, доки ваш порядок моделей буде правильно вказаний, оскільки тоді помилки вашої моделі будуть незалежними.

Ця стаття тут показує , що якщо модель має бідний крос-валідація недооцінює , наскільки поганий вона на самому справі. У всіх інших випадках перехресне підтвердження принесе хорошу роботу, зокрема, кращу роботу, ніж позамобільна оцінка, яка зазвичай використовується в контексті часових рядів.


6

Цікаве запитання!

Описаний вами підхід, безумовно, дуже широко використовується людьми, що використовують стандартні методи ML, які потребують векторів ознак фіксованої довжини атрибутів, для аналізу даних часових рядів.

У публікації, на яку ви посилаєтесь, Хайндман вказує, що між переробленими векторами даних (зразками) існують кореляції. Це може бути проблематично, оскільки k-CV (або інші методи оцінювання, які поділяють дані навмання на навчальні та тестові набори) передбачає, що всі вибірки є незалежними. Однак я не вважаю, що це занепокоєння стосується стандартних методів МЛ, які розглядають атрибути окремо.

н=3

А:(у1,у2,у3;у4)Б:(у2,у3,у4;у5)С:(у3,у4,у5;у6)

Зрозуміло, що A і B мають такі терміни, як у2в загальному. Але для A це значення його другого атрибута, тоді як для B це значення першого атрибута.


1
Я погоджуюсь з вами, що деякі алгоритми МЛ можуть не сприйняти проблему сильно корельованих зразків, оскільки вони трактують атрибути повністю окремо. Але ці алгоритми також не дуже хороші для роботи в часових рядах. Алгоритми ML, які є перспективними для часового ряду, повинні мати можливість помітити, що атрибут №1 та атрибут №2 насправді схожий, інакше вони будуть поганими при прогнозуванні (прогнозування має бути приблизно подібним, коли ви зміщуєте час на 1). Ці алгоритми також будуть страждати від проблеми, згаданої Хайндманом.
макс
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.