Якщо у вас є два конкуруючі оцінки θ^1 та θ^2 , незалежно від того, чи ні
M S E ( θ^1) < M S E ( θ^2)
повідомляє вам, що
θ^1 є кращий оцінювач повністю залежить від вашого визначення "найкращого". Наприклад, якщо ви порівнюєте неупереджені оцінки та під "кращим" ви маєте на увазі меншу дисперсію, то так, це означає, що
θ^1 краще.
M S E є популярним критерієм через його зв'язок із найменшими квадратами та гауссовою вірогідністю логарифмічних даних, але, як і багато статистичних критеріїв, слід уникати використання
M S E сліпо як міра якості оцінки, не звертаючи уваги на додаток.
Існують певні ситуації, коли вибір оцінювача для мінімізації може бути не особливо розумним. На думку спадають два сценарії:M S E
Якщо в наборі даних є дуже великі видатки, вони можуть вплинути на MSE кардинально, і, таким чином, на оцінювач, що мінімізує MSE, можуть надмірно впливати такі люди. У таких ситуаціях той факт, що оцінювач мінімізує MSE, насправді не дуже розказує, оскільки, якщо ви видалили інші (-і) шрифти, ви можете отримати диво іншу оцінку. У цьому сенсі MSE не є "надійним" для людей, що вижили. У контексті регресії цей факт є тим, що мотивував M-оцінювача Хубера (про який я обговорюю у цій відповіді), який мінімізує різні функції критеріїв (тобто суміш між помилкою у квадраті та абсолютною помилкою), коли виникають довгохвості помилки .
Якщо ви оцінюєте обмежений параметр, порівняння s може виявитися недоцільним, оскільки воно в такому випадку карає по-різному і заниження. Наприклад, припустимо, що ви оцінюєте дисперсію . Тоді, якщо ви свідомо недооцінюєте кількість, ваш може бути не більше , тоді як завищена оцінка може призвести до що значно перевищує , можливо, навіть на необмежену кількість.σ 2 M S E σ 4 M S E σ 4M S Eσ2M S Eσ4M S Eσ4
Щоб зробити ці недоліки більш зрозумілими, я наведу конкретний приклад того, коли через ці проблеми не може бути відповідним показником якості оцінки.M S E
Припустимо, у вас є зразок з розподілу з ступенями свободи, і ми намагаємося оцінити дисперсію, яка є . Розглянемо два конкуруючих оцінювача: і явно і факт, що які можна отримати за допомогою т ν > 2 ν / ( ν - 2 ) θ 1 : т ч е у п б я в и е D сек м р л е про р я н гр е & thetas ; 2 = 0 , г е g a r dХ1, . . . , Xнтν> 2ν/ (ν- 2 )
θ^1: t h e u n b i a s e d s a m p l e v a r i a n c e
М З Е ( θ 2 ) = ν 2θ^2= 0 , r e g a r d l e s s o f t h e d a t a
МЗЕ( θ 1)={ ∞ , якщо N , & le ; 4 N , 2M S E ( θ^2) = ν2( ν- 2 )2tMSEν<4(2M S E ( θ^1) = { ∞ν2( ν- 2 )2( 2n - 1+ 6n ( ν- 4 ))якщо ν≤ 4якщо ν> 4 .
факт, що обговорюється в цій нитці, та
властивості -розподілут .
Таким чином, наївний оцінювач перевершує показник незалежно від розміру вибірки кожного разуM S Eν< 4 , що досить непомітно. Він також перевершує, коли але це актуально лише для дуже малих розмірів вибірки. Вищезазначене трапляється через тривалий характер розподілу з малими ступенями свободи, що робить схильним до дуже великих значень, і сильно штрафує за завищення, тоді як
т θ 2МЗЕ & thetas ; 1( 2n - 1+ 6n ( ν- 4 )) >1тθ^2M S Eθ^1 не має цієї проблеми.
Підсумок тут полягає в тому, що не є відповідним показником оцінки вимірювання в цьому сценаріїM S E . Це зрозуміло, оскільки оцінювач, який домінує з точки зору є смішним (тим більше, що немає шансів, що він правильний, якщо є якась мінливість у спостережуваних даних). Можливо, більш підходящим підходом (на що вказували Казелла та Бергер) було б вибрати оцінку дисперсії що мінімізує втрату Штейна:θM S Eθ^
S( θ^) = θ^ν/ (ν- 2 )- 1 - журнал( θ^ν/ (ν- 2 ))
що карається заниженням однаковою мірою як завищення. Це також повертає нас до розуму, оскільки :)S( θ^1) = ∞