У теорії Байєса , а з книги, яку я читаю, називається ймовірність , але я припускаю , що це всього лише умовна ймовірність від дається , НЕ так?
В оцінці максимальної правдоподібності намагається максимізувати , НЕ так? Якщо так, я сильно плутаюсь, тому що це обидві випадкові величини, правда? Для максимального тільки з'ясувати , в ? Ще одна проблема: якщо ці 2 випадкові величини незалежні, то - просто , правда? Тоді максимізація - це максимізація .
А може, - це функція деяких параметрів , тобто , і MLE намагається знайти який може максимально збільшити ? Або навіть що - це фактично параметри моделі, а не випадкова величина, що збільшує ймовірність - це знайти ?
ОНОВЛЕННЯ
Я початківець у машинному навчанні, і ця проблема викликає плутанину з речей, які я читала з підручника з машинного навчання. Ось він, враховуючи спостережуваний набір даних , цільовими значеннями є , і я намагаюся помістити модель на цей набір даних , тож я припускаю, що, даючи , має форму розподілу, яку називають параметризовану на , тобто , і я припускаю, що це ймовірність задньої , так?
Тепер для оцінки значення я використовую MLE. Гаразд, тут виникає моя проблема, я думаю, ймовірність , правда? Максимізація ймовірності означає, що я повинен вибрати правильний і ?
Якщо моє розуміння ймовірності неправильне, будь ласка, покажіть мені правильний шлях.