[Я думаю, що це може бути прикладом ситуації, про яку йдеться у вашому питанні.]
Є численні приклади непослідовних оцінювачів ML. Невідповідність зазвичай спостерігається з різноманітними проблемами, що мають трохи складну суміш, і проблемами цензури.
[Послідовність тесту - це лише те, що сила тесту для (фіксованої) помилкової гіпотези зростає до одиниці, як .]n → ∞
Радфорд Ніл наводить приклад у своєму записі у щоденнику 2008-08-09 Непослідовна оцінка максимальної ймовірності: «Звичайний» приклад . Він включає оцінку параметра у:θ
Х | θ~(1 / 2)N ( 0 , 1 ) + ( 1 / 2 ) N ( θ , експ( - 1 / θ2)2)
(Ніл використовує там, де у мене є ), де оцінка ML буде схильна до як (і справді ймовірність може бути набагато вищою в піку близько 0, ніж при справжньому значенні для досить скромної вибірки розміри). Тим не менш, випадок, що є пік поблизу справжнього значення , він просто менший, ніж значення, що знаходиться біля 0.θ θ 0 n → ∞ θтθθ0n → ∞θ
Уявіть тепер два випадки, пов'язані з цією ситуацією:
а) проведення тесту на відношення ймовірності проти альтернативи ;H 1 : θ < θ 0Н0: θ = θ0H1:θ<θ0
б) виконання тесту на відношення ймовірності проти альтернативи .H 1 : θ ≠ θ 0H0:θ=θ0H1:θ≠θ0
У випадку (а) уявіть, що істина (так що альтернатива є істинною, а - іншою стороною істинної ). Тоді, незважаючи на те, що ймовірність, що дуже близька до 0, перевищить при , ймовірність при все ж перевищує ймовірність при навіть у невеликих зразках, і співвідношення буде продовжувати зростати як , таким чином, щоб змусити ймовірність відхилення в тесті коефіцієнта ймовірності перейти до 1. 0 θ θ θ θ 0 n → ∞θ<θ00θθθθ0n→∞
Дійсно, навіть у випадку, коли (b), поки фіксований та обмежений від , також має бути випадок, що коефіцієнт ймовірності зростатиме таким чином, щоб зробити тесту ймовірності відхилення також тест на коефіцієнт ймовірності підхід 1. 0θ00
Таким чином, це, мабуть, є прикладом непослідовної оцінки ML, коли потужність LRT все-таки повинна 1 (за винятком випадків, коли ).θ0=0
[Зверніть увагу, що насправді немає нічого в цьому, що вже не у відповіді Ваубера, що, на мою думку, є прикладом ясності, і є набагато простішим для розуміння різниці між консистенцією тесту та послідовністю оцінювача. Той факт, що непослідовний оцінювач у конкретному прикладі не був ML, насправді не має значення, наскільки розуміє цю різницю - і введення непослідовного оцінювача саме для ML - як я намагався зробити тут - насправді не змінює пояснення будь-яким предметним способом. Єдиним реальним моментом прикладу тут є те, що я думаю, що це вирішує вашу проблему щодо використання оцінки ML.]