Функція ймовірності визначається як вірогідність події E (набір даних x ) як функція параметрів моделі θ
L(θ;x)∝P(Event E;θ)=P(observing x;θ).
Тому немає припущення про незалежність спостережень. У класичному підході немає визначення незалежності параметрів, оскільки вони не є випадковими змінними; деякими пов'язаними поняттями можуть бути ідентифікація , ортогональність параметрів та незалежність оцінювачів максимальної вірогідності (які є випадковими змінними).
Деякі приклади,
(1). Дискретний випадок . є зразок (незалежний) дискретних спостережень з P ( спостереження х J ; & thetas ; ) > 0 , тоx=(x1,...,xn)P(observing xj;θ)>0
L(θ;x)∝∏j=1nP(observing xj;θ).
Зокрема, якщо , з N відомим, маємо цеxj∼Binomial(N,θ)N
L(θ;x)∝∏j=1nθxj(1−θ)N−xj.
(2). Безперервне наближення . Нехай бути зразком з безперервного випадкової величини X , з розподілом F і щільністю F , з вимірюванням помилки е , це, ви спостерігаєте безліч ( х J - ε , х j + ϵ ) . Потімx=(x1,...,xn)XFfϵ(xj−ϵ,xj+ϵ)
L(θ;x)∝∏j=1nP[observing (xj−ϵ,xj+ϵ);θ]=∏j=1n[F(xj+ϵ;θ)−F(xj−ϵ;θ)]
Коли невеликий, це можна наблизити (використовуючи теорему середнього значення) наϵ
L(θ;x)∝∏j=1nf(xj;θ)
Для прикладу зі звичайним випадком погляньте на це .
(3). Залежна і маркова модель . Припустимо , що являє собою набір спостережень , можливо , залежних і нехай F бути спільної щільності х , тоx=(x1,...,xn)fx
L(θ;x)∝f(x;θ).
Якщо додатково власність Маркова задоволена, то
L(θ;x)∝f(x;θ)=f(x1;θ)∏j=1n−1f(xj+1|xj;θ).
Погляньте і на це .