Випадкова оцінка ходу з AR (1)


10

Коли я оцінюю випадкову прогулянку з AR (1), коефіцієнт дуже близький до 1, але завжди менший.

Яка математична причина того, що коефіцієнт не більший одиниці?


Я спробував за допомогою інструменту Matlab, а також зі своїм сценарієм на arima (де коефіцієнт обмежений [-10,10], і результат той самий). Я пробую з простим OLS, і результат той самий.
Марко

Оцінка упереджена вниз, ми повинні читати папери Дікі та Фуллера.
Марко

Відповіді:


12

Оцінимо за OLS модель

хт=ρхт-1+ут,Е(ут{хт-1,хт-2,...})=0,х0=0

Для вибірки розміру T оцінювач є

ρ^=т=1Тхтхт-1т=1Тхт-12=ρ+т=1Тутхт-1т=1Тхт-12

Якщо справжній механізм генерації даних - це чиста випадкова прогулянка, то , іρ=1

хт=хт-1+утхт=i=1туi

Розподіл вибірки МНК - оцінки, або , що еквівалентно, розподіл вибірки р - 1 , не є симетричним близько нуля, а це перекіс вліво від нуля, з 68 % від отриманих значень (тобто ймовірність маси) негативна, і тому ми отримуємо найчастіше ρ < 1 . Ось відносний розподіл частотиρ^-168ρ^<1

введіть тут опис зображення

Середнє значення:-0,0017773Середня:-0.00085984Мінімум: -0,042875Максимум: 0,0052173Стандартне відхилення: 0,0031625Шкідливість: -2.2568Вих. куртоз: 8.3017

Іноді це називається розподілом "Dickey-Fuller", тому що це основа для критичних значень, що використовуються для виконання однойменних тестів Unit-Root.

Я не згадую, як бачив спробу інтуїції форми розподілу вибірки. Ми дивимось на вибіркове розподіл випадкової величини

ρ^-1=(т=1Тутхт-1)(1т=1Тхт-12)

утρ^-1ρ^-1

Т=5

Якщо підсумовувати незалежні Нормативи продуктів, ми отримуємо розподіл, який залишається симетричним навколо нуля. Наприклад:

введіть тут опис зображення

Але якщо ми підсумовуємо незалежні Нормативи товарів, як це у нас виходить

введіть тут опис зображення

який перекошений вправо, але з більшою часткою ймовірності маса, розподілена на негативні значення. І маса, схоже, штовхається ще більше ліворуч, якщо збільшити розмір вибірки і додати більше співвіднесених елементів до суми.

Зворотна сума незалежної Гамми - це негативна випадкова величина з позитивним перекосом.

ρ^-1


Нічого, приємний аналіз! Чи можете ви вказати, яке із стандартних припущень OLS тут порушено?
Річард Харді

@ RichardHardy Дякую Я повернусь пізніше, щоб відповісти на ваш коментар.
Алекос Пападопулос

Мені все ще цікаво припущень OLS ... Дякую заздалегідь!
Річард Харді

Хт+1=αХт+ϵХт+1-Хт

ρ^<1ρ^-1

6

Це насправді не відповідь, але занадто довго для коментаря, тому я все-таки публікую це.

Я зміг отримати коефіцієнт, більший за 1, два рази зі ста для розміру вибірки 100 (використовуючи "R"):

N=100                   # number of trials
T=100                   # length of time series
coef=c()
for(i in 1:N){
 set.seed(i)
 x=rnorm(T)             # generate T realizations of a standard normal variable
 y=cumsum(x)            # cumulative sum of x produces a random walk y
 lm1=lm(y[-1]~y[-T])    # regress y on its own first lag, with intercept
 coef[i]=as.numeric(lm1$coef[1])
}
length(which(coef<1))/N # the proportion of estimated coefficients below 1

Реалізації 84 і 95 мають коефіцієнт вище 1, тому він не завжди нижче одного. Однак, очевидно, є тенденція мати тенденцію до зменшення вниз. Залишаються питання, чому ?

Редагувати: вищезазначені регресії включали термін перехоплення, який, схоже, не належить до моделі. Після того, як перехоплення буде знято, я отримую ще багато оцінок вище 1 (3158 з 10000) - але все одно це явно нижче 50% усіх випадків:

N=10000                 # number of trials
T=100                   # length of time series
coef=c()
for(i in 1:N){
 set.seed(i)
 x=rnorm(T)             # generate T realizations of a standard normal variable
 y=cumsum(x)            # cumulative sum of x produces a random walk y
 lm1=lm(y[-1]~-1+y[-T]) # regress y on its own first lag, without intercept
 coef[i]=as.numeric(lm1$coef[1])
}
length(which(coef<1))/N # the proportion of estimated coefficients below 1

точно, не "завжди" другорядне, але в більшості випадків. Очевидно, це хибний результат. чому причина?
Марко

2
хтхт-1
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.