Оцінювач ML призводить до значення для параметра, який, найімовірніше, має місце в наборі даних.
Враховуючи припущення, Оцінювач ML - це значення параметра, який має найкращі шанси створити набір даних.
Я не можу інтуїтивно зрозуміти упереджений оцінювач ML в тому сенсі, "як найбільш ймовірне значення параметра може передбачити реальне значення параметра з ухилом до неправильного значення?"
Упередження стосується очікувань вибіркових розподілів. "Швидше за все, для отримання даних" не йдеться про очікування вибіркових розподілів. Чому від них слід було б піти разом?
Яка основа, на якій дивно, що вони не обов'язково відповідають?
Я б запропонував вам розглянути кілька простих випадків MLE і задуматися, як різниця виникає в цих конкретних випадках.
Як приклад, розглянемо спостереження щодо рівномірного на . Найбільше спостереження (обов'язково) не більше параметра, тому параметр може приймати значення, принаймні такі ж великі, як і найбільші спостереження.( 0 , θ )
Якщо врахувати ймовірність , вона (очевидно) більша, чим ближче до найбільшого спостереження. Таким чином, він максимізується при найбільшому спостереженні; це однозначно оцінка для яка максимально збільшує шанс отримати зразок, який ви отримали:θθθ
Але з іншого боку, він повинен бути упередженим, оскільки найбільше спостереження очевидно (з вірогідністю 1) менше, ніж справжнє значення ; будь-яка інша оцінка яка вже не виключається самим зразком, повинна бути більшою, ніж вона, і повинна (цілком очевидно в цьому випадку) мати меншу ймовірність отримати вибірку.θθ
Очікування найбільшого спостереження від дорівнює , тому звичайний спосіб його відхилення - це взяти за оцінку : , де - найбільше спостереження.U( 0 , θ )нn + 1θθ^= n + 1нХ( n )Х( n )
Це лежить праворуч від MLE і тому має меншу ймовірність.