Вступ
Моя зацікавленість даною темою зараз становить близько 7 років, і це призвело до кандидатської дисертації Часовий ряд: агрегація, дезагрегація та довга пам’ять , де увагу було приділено конкретному питанню проблеми поперечного розбиття за схемою AR (1).
Дані
Робота з різними підходами до агрегування. Перше питання, яке вам потрібно уточнити, - це тип даних, з яким ви маєте справу (я думаю, просторовий, найбільш захоплюючий) На практиці ви можете врахувати часову агрегацію (див. Silvestrini, A. і Veridas, D. (2008) ), поперечний переріз (мені сподобалася стаття Granger, CWJ (1990) ) або час і простір (просторова агрегація добре оглядається у Giacomini, R. and Granger, CWJ (2004) ).
Відповіді (тривалі)
Тепер, відповідаючи на ваші запитання, я поставив спочатку деяку грубу інтуїцію. Оскільки проблеми, з якими я стикаюся на практиці, часто базуються на неточних даних (припущення Енді
ви можете виміряти часовий ряд спостережень на будь-якому рівні точності в часі
здається занадто сильним для макроеконометрики, але добре для фінансової та мікроекономіетрії чи будь-яких експериментальних галузей, чи ти досить добре контролював точність) Я маю мати на увазі, що мій щомісячний часовий ряд менш точний, ніж коли я працюю з щорічні дані. Крім того, що більш часті часові ряди принаймні в макроекономіці мають сезонні структури , що може призвести до помилковихрезультати (сезонні частини дійсно співвідносяться не з серіями), тому вам потрібно сезонно коригувати свої дані - ще одне джерело меншої точності для отримання даних про більш високу частоту. Робота з даними поперечного перерізу виявила, що високий рівень дезагрегації приносить більше проблем, мабуть, з багатьма нулями, з якими потрібно боротися. Наприклад, певне домогосподарство на панелі даних може придбати машину один раз на 5-10 років, але сукупний попит на нові (вживані) автомобілі значно плавніший (навіть для невеликого міста чи регіону).
Слабке місце агрегації завжди призводить до втрати інформаціїу вас може виникнути ВВП, який виробляється в перерізі країн ЄС протягом усього десятиліття (скажімо, період 2001-2010 рр.), але ви втратите всі динамічні особливості, які можуть бути присутні у вашому аналізі, враховуючи детальний набір даних панелі. Агрегація в поперечному перерізі може виявитися ще цікавішою: ви, грубо кажучи, берете прості речі (короткий об'єм пам'яті AR (1)) в середньому за досить великою сукупністю і отримуєте "представницький" агент довгої пам’яті, який не нагадує жодного мікро одиниці (ще один камінь до представницької концепції агента). Отже, агрегація ~ втрата інформації ~ різні властивості об'єктів, і ви хочете взяти під контроль рівень цієї втрати та / або нових властивостей. На мою думку, краще мати точні дані мікрорівень на максимально високій частоті, але ...
Технічно виробляючи будь-який регресійний аналіз, вам потрібно більше місця (ступеня свободи), щоб бути більш-менш впевненим, що (принаймні) статистично ваші результати не є непотрібними, хоча вони все ще можуть бути теоретичними і непотрібними :) Тому я дійсно ставлю рівним ваги для запитань 1 і 2 (зазвичай вибирають квартальні дані для макроаналізу). Відповідаючи на третє підпитання, все, що ви вирішите в практичних програмах, що для вас важливіше: більш точні дані або ступінь свободи. Якщо врахувати згадане припущення, то більш кращими є більш детальні (або більш високі частоти) дані.
Можливо, відповідь буде відредагована останньою після якоїсь дискусії, якщо така є.