Я знайшов дуже корисний підручник щодо алгоритму ЕМ .
Приклад та малюнок із підручника просто геніальні.
Пов'язане питання щодо обчислення ймовірностей, як працює максимізація очікування?
У мене є ще одне питання щодо того, як з'єднати теорію, описану в підручнику, із прикладом.
Під час Е-кроку ЕМ вибирає функцію яка знижує межі скрізь, і для якої . увійти Р ( х ; & thetas ; ) г т ( Θ ( т ) ) = увійти Р ( х ; Θ ( т ) )
Отже, що таке у нашому прикладі, і схоже, що воно повинно бути різним для кожної ітерації.
Крім того, у прикладі та то застосувавши їх до даних, отримаємо, що і . Що для мене виглядає протилежним інтуїтивно. Ми мали деякі попередні припущення, застосували їх до даних та отримали нові припущення, тому дані так чи інакше змінили припущення. Я не розумію, чому не дорівнює .
Крім того, виникає більше запитань, коли ви бачите Додаткову примітку 1 до цього підручника. Наприклад, що таке у нашому випадку. Мені не ясно, чому нерівність щільна, коли
Дякую.