Щодо того, як підігнати дані до нормального косого розподілу, ви можете обчислити максимальну оцінку ймовірності за першими принципами. Спочатку зауважимо , що функція щільності ймовірності для косого нормального розподілу з параметром розташування , масштаб параметр і форма параметра єω αξωα
2ωϕ ( x - ξω) Φ ( α ( x - ξω) )
де є стандартною функцією нормальної щільності, а - стандартною нормальною CDF. Зауважте, що ця щільність є членом класу, описаного в моїй відповіді на це запитання .Φ ( ⋅ )ϕ ( ⋅ )Φ ( ⋅ )
Імовірність журналу, заснована на вибірці незалежних спостережень з цього розподілу, є:н
−nlog(ω)+∑i=1nlogϕ(x−ξω)+logΦ(α(x−ξω))
Це факт, що для цього MLE не існує рішення закритої форми. Але, це можна вирішити чисельно. Наприклад, у R
, ви можете кодувати функцію ймовірності як (зауважте, я зробив її менш компактною / ефективною, ніж можливо, щоб зробити її повністю прозорою, як це обчислює функцію ймовірності вище):
set.seed(2345)
# generate standard normal data, which is a special case
n = 100
X = rnorm(n)
# Calculate (negative) log likelihood for minimization
# P[1] is omega, P[2] is xi and P[3] is alpha
L = function(P)
{
# positivity constraint on omega
if( P[1] <= 0 ) return(Inf)
S = 0
for(i in 1:n)
{
S = S - log( dnorm( (X[i] - P[2])/P[1] ) )
S = S - log( pnorm( P[3]*(X[i] - P[2])/P[1] ) )
}
return(S + n*log(P[1]))
}
Тепер ми просто числово мінімізуємо цю функцію (тобто максимізуємо ймовірність). Це можна зробити, не обчислюючи похідні, використовуючи алгоритм Simplex , який є типовою реалізацією в optim()
пакеті в R
.
Щодо тестування на предмет косості: ми можемо явно перевірити нахил - нормальний та нормальний (оскільки нормальний - це підмодель), обмеживши і зробивши тест на коефіцієнт ймовірності .α=0
# log likelihood constraining alpha=0.
L2 = function(Q) L(c(Q[1],Q[2],0))
# log likelihood from the constrained model
-optim(c(1,1),L2)$value
[1] -202.8816
# log likelihood from the full model
-optim(c(1,1,1),L)$value
[1] -202.0064
# likelihood ratio test statistic
LRT = 2*(202.8816-202.0064)
# p-value under the null distribution (chi square 1)
1-pchisq(LRT,1)
[1] 0.1858265
Тому ми не відкидаємо нульову гіпотезу, що (тобто немає перекосу).α=0
Тут порівняння було простим, оскільки нормальний розподіл був підмоделем. В інших, більш загальних випадках, ви можете порівняти косий нормальний з іншими еталонними розподілами, порівнюючи, наприклад, AIC s (як це зроблено тут ), якщо ви використовуєте максимальну оцінку ймовірності у всіх конкуруючих підходах. Наприклад, ви можете встановити дані за максимальною вірогідністю при розподілі гами та під нормальним перекосом і побачити, чи додана ймовірність виправдовує додаткову складність перекосу нормально (3 параметри замість 2). Ви також можете розглянути можливість використання одного зразка тесту Колмогорова Смірнова для порівняння ваших даних з найкращою оцінкою з сімейства косого.