Незаангажованість не обов'язково особливо важлива сама по собі.
Окрім дуже обмеженого набору обставин, більшість корисних оцінок є упередженими, однак вони отримані.
Якщо два оцінювачі мають однакову дисперсію, можна легко встановити аргумент за те, щоб віддати перевагу неупередженому перед упередженим, але це незвична ситуація (тобто ви можете з розумом віддати перевагу неупередженість, цетерис парибус - але ті примхливі цетери майже ніколи не парушаються ).
Більш типово, якщо ви хочете неупередженості, ви будете додавати певну дисперсію, щоб отримати її, і тоді питання буде в тому, чому б ви це зробили ?
Зсув - наскільки очікуване значення мого оцінювача буде в середньому занадто високим (при негативному зміщенні вказується занадто низький).
Коли я розглядаю невеликий оцінювач вибірки, мені це зовсім не цікаво. Мене зазвичай більше цікавить, наскільки невірним буде мій оцінювач у цьому випадку - моя типова відстань праворуч ... щось на зразок помилки «середньоквадратичний квадрат» або «середня абсолютна помилка» матиме більше сенсу.
Отже, якщо вам подобається низька дисперсія та низька упередженість, прохання сказати про оцінку мінімальної середньої квадратичної помилки має сенс; вони дуже рідко є неупередженими.
Упередженість та неупередженість - це корисне поняття, яке слід пам’ятати, але це не особливо корисна властивість шукати, якщо тільки ви не порівнюєте оцінки з однаковою дисперсією.
Оцінювачі ML мають тенденцію бути низькою дисперсією; як правило, вони не є мінімальними MSE, але вони часто мають менший MSE, ніж те, що ви можете змінити, щоб вони не були об'єктивними (коли ви взагалі можете це зробити).
В якості прикладу розгляне оцінку дисперсії при відборі проб з нормального розподілу σ 2 МСКО = S 2σ^2MMSE=S2n+1,σ^2MLE=S2n,σ^2Unb=S2n−1n−1