Як ви обираєте одиницю аналізу (рівень агрегації) у часових рядах?


13

Якщо ви можете виміряти часовий ряд спостережень на будь-якому рівні точності в часі, і ваша мета дослідження - виявити взаємозв'язок між X і Y, чи є емпіричне обґрунтування вибору конкретного рівня агрегації над іншим, чи слід вибір слід приймати просто на основі теорії та / або практичних обмежень?

Я маю три підпитання до цього основного:

  1. Чи є будь-яка невипадкова зміна X або Y в межах більшого рівня достатньою міркуванням для вибору меншого рівня агрегації (де не випадковою є будь-яка часова закономірність спостережень)?

  2. Чи є якась різниця у співвідношенні між X та Y на меншому рівні агрегації достатнім обґрунтуванням, щоб обґрунтувати меншу одиницю аналізу? Якщо деяка варіація є прийнятною, то як вирішити, скільки варіантів буде занадто багато?

  3. Чи можуть люди навести аргументи, які вони вважають переконливими / чітко визначеними для однієї одиниці аналізу над іншою, або з емпіричних причин, або з теоретичних причин?

Я добре знаю проблему, що може змінюватися в просторовому аналізі ( Openshaw 1984 ). Я не претендую на те, що я є експертом у цьому матеріалі, але все, на що я думаю, поки що, це те, що менша одиниця аналізу завжди краще, оскільки людина рідше вчиняє екологічну помилку ( Robinson 1950 ). Якщо є пряма відповідна посилання або відповідь, що стосується географічних одиниць агрегації, я також вдячний за цю відповідь.

Відповіді:


9

Вступ

Моя зацікавленість даною темою зараз становить близько 7 років, і це призвело до кандидатської дисертації Часовий ряд: агрегація, дезагрегація та довга пам’ять , де увагу було приділено конкретному питанню проблеми поперечного розбиття за схемою AR (1).

Дані

Робота з різними підходами до агрегування. Перше питання, яке вам потрібно уточнити, - це тип даних, з яким ви маєте справу (я думаю, просторовий, найбільш захоплюючий) На практиці ви можете врахувати часову агрегацію (див. Silvestrini, A. і Veridas, D. (2008) ), поперечний переріз (мені сподобалася стаття Granger, CWJ (1990) ) або час і простір (просторова агрегація добре оглядається у Giacomini, R. and Granger, CWJ (2004) ).

Відповіді (тривалі)

Тепер, відповідаючи на ваші запитання, я поставив спочатку деяку грубу інтуїцію. Оскільки проблеми, з якими я стикаюся на практиці, часто базуються на неточних даних (припущення Енді

ви можете виміряти часовий ряд спостережень на будь-якому рівні точності в часі

здається занадто сильним для макроеконометрики, але добре для фінансової та мікроекономіетрії чи будь-яких експериментальних галузей, чи ти досить добре контролював точність) Я маю мати на увазі, що мій щомісячний часовий ряд менш точний, ніж коли я працюю з щорічні дані. Крім того, що більш часті часові ряди принаймні в макроекономіці мають сезонні структури , що може призвести до помилковихрезультати (сезонні частини дійсно співвідносяться не з серіями), тому вам потрібно сезонно коригувати свої дані - ще одне джерело меншої точності для отримання даних про більш високу частоту. Робота з даними поперечного перерізу виявила, що високий рівень дезагрегації приносить більше проблем, мабуть, з багатьма нулями, з якими потрібно боротися. Наприклад, певне домогосподарство на панелі даних може придбати машину один раз на 5-10 років, але сукупний попит на нові (вживані) автомобілі значно плавніший (навіть для невеликого міста чи регіону).

Слабке місце агрегації завжди призводить до втрати інформаціїу вас може виникнути ВВП, який виробляється в перерізі країн ЄС протягом усього десятиліття (скажімо, період 2001-2010 рр.), але ви втратите всі динамічні особливості, які можуть бути присутні у вашому аналізі, враховуючи детальний набір даних панелі. Агрегація в поперечному перерізі може виявитися ще цікавішою: ви, грубо кажучи, берете прості речі (короткий об'єм пам'яті AR (1)) в середньому за досить великою сукупністю і отримуєте "представницький" агент довгої пам’яті, який не нагадує жодного мікро одиниці (ще один камінь до представницької концепції агента). Отже, агрегація ~ втрата інформації ~ різні властивості об'єктів, і ви хочете взяти під контроль рівень цієї втрати та / або нових властивостей. На мою думку, краще мати точні дані мікрорівень на максимально високій частоті, але ...

Технічно виробляючи будь-який регресійний аналіз, вам потрібно більше місця (ступеня свободи), щоб бути більш-менш впевненим, що (принаймні) статистично ваші результати не є непотрібними, хоча вони все ще можуть бути теоретичними і непотрібними :) Тому я дійсно ставлю рівним ваги для запитань 1 і 2 (зазвичай вибирають квартальні дані для макроаналізу). Відповідаючи на третє підпитання, все, що ви вирішите в практичних програмах, що для вас важливіше: більш точні дані або ступінь свободи. Якщо врахувати згадане припущення, то більш кращими є більш детальні (або більш високі частоти) дані.

Можливо, відповідь буде відредагована останньою після якоїсь дискусії, якщо така є.


Дякую за відповідь. На обробку поданих вами матеріалів знадобиться мінімум кілька днів. Я також хотів би сказати, що ваша дисертація є надзвичайно приємною, і прочитавши ваше вступне життя, я з нетерпінням чекаю решти.
Енді Ш
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.