Запитання з тегом «expectation-maximization»

Алгоритм оптимізації часто застосовується для оцінки максимальної ймовірності за наявності відсутніх даних.


3
Оцініть кількість населення, що відбирається, за кількістю повторних спостережень
Скажімо, у мене є 50 мільйонів унікальних речей, і я беру 10 мільйонів зразків (із заміною) ... Перший графік, який я додав, показує, скільки разів я відбираю ту саму «річ», що є порівняно рідкісним кількість населення більша, ніж мій зразок. Однак якщо моє населення складає лише 10 мільйонів речей, і …

4
Виділення двох сукупностей від вибірки
Я намагаюся відокремити дві групи значень з одного набору даних. Я можу припустити, що одна з популяцій зазвичай розподілена і становить щонайменше половину розміру вибірки. Значення другого є і нижчими, або вищими, ніж значення першого (розподіл невідомий). Що я намагаюся зробити - це знайти верхню і нижню межі, які охоплювали …

2
Чи означає MLE завжди, що ми знаємо, що лежить в основі нашого PDF, і чи означає EM, що ми цього не робимо?
У мене є кілька простих концептуальних питань, які я хотів би уточнити стосовно MLE (Максимальна оцінка ймовірності), а також те, яке зв’язок воно має, якщо воно є, з EM (Максималізація очікування). Як я розумію, якщо хтось каже "Ми використовували MLE", чи це автоматично означає, що вони мають чітку модель PDF-файлів …

2
Знаходження кількості гауссів у скінченній суміші з теоремою Вілкса?
Припустимо, у мене є набір незалежних, однаково розподілених одномірних спостережень та дві гіпотези про те, як генерується :xxxxxx H0H0H_0 : xxx виведено з одного гауссового розподілу з невідомими середніми та дисперсійними. HAHAH_A : xxx виводиться із суміші двох гауссів з невідомим середнім, дисперсійним та коефіцієнтом змішування. Якщо я правильно розумію, …

2
Значення початкових ймовірностей переходу у прихованій марківській моделі
Які переваги надають певні початкові значення перехідним ймовірностям у прихованій моделі Маркова? Врешті-решт система їх вивчить, тож який сенс давати значення, крім випадкових? Чи змінюється базовий алгоритм, такий як Баум-Велч? Якщо я знаю ймовірності переходу на початку дуже точно, і моя головна мета - передбачити вихідні ймовірності з прихованого стану …

1
Як ви використовуєте алгоритм ЕМ для обчислення MLE для латентної змінної рецептури нульової надутої моделі Пуассона?
Нульова завищені Пуассона моделі регресії визначається для зразка по і далі передбачається, що параметри та задовольняютьY i = { 0 з вірогідністю p i + ( 1 - p i ) e - λ i k з вірогідністю ( 1 - p i ) e - λ i λ k …


1
Як зробити матрицю позитивною?
Я намагаюся реалізувати алгоритм ЕМ для наступної моделі аналізу факторів; Wj= μ + B aj+ еjдляj = 1 , … , nWj=μ+Baj+ejforj=1,…,nW_j = \mu+B a_j+e_j \quad\text{for}\quad j=1,\ldots,n де - р-розмірний випадковий вектор, - q-мірний вектор прихованих змінних і - матриця pxq параметрів.а j БWjWjW_jаjaja_jБBB У результаті інших припущень, використаних для …

3
Різниця між MLE та Baum Welch щодо штуцерів HMM
У цьому популярному питанні відповідь з високою оцінкою робить MLE та Baum Welch відокремленими у підході до HMM. Для тренувальної задачі ми можемо використовувати наступні 3 алгоритми: MLE (максимальна оцінка ймовірності), навчання Вітербі (НЕ плутати з декодуванням Вітербі), Baum Welch = алгоритм вперед-назад. АЛЕ у Вікіпедії , йдеться Алгоритм Баума-Уелча …

2
Довідка в очікуванні Максимізація з паперу: як включити попередній розподіл?
Питання грунтується на роботі під назвою: Реконструкція зображення в дифузній оптичній томографії за допомогою зв'язаної моделі радіаційного транспорту-дифузії. Посилання для завантаження Автори застосовують алгоритм ЕМ з регуляризацією розрідженості невідомого вектораl1l1l_1μμ\muдля оцінки пікселів зображення. Модель задана y=Aμ+e(1)(1)y=Aμ+ey=A\mu + e \tag{1} Оцінка наведена у рівнянні (8) як μ^=argmaxlnp(y|μ)+γlnp(μ)(2)(2)μ^=arg⁡maxln⁡p(y|μ)+γln⁡p(μ)\hat{\mu} = \arg max {\ln …

1
Обмеження MCMC / EM? MCMC над EM?
В даний час я вивчаю ієрархічні байєсові моделі за допомогою JAGS від R, а також pymc за допомогою Python ( "Байєсівські методи для хакерів" ). Я можу отримати певну інтуїцію з цього посту : "ви закінчите купу купу чисел, яка виглядає" так, ніби "вам якимось чином вдалося взяти незалежні вибірки …

1
Чи алгоритм ЕМ послідовно оцінює параметри в моделі Гауссової суміші?
Я вивчаю модель Гауссової суміші і сам придумую це питання. Припустимо, основні дані генеруються із суміші КKK Гауссова розподіл і кожен з них має середній вектор мкк∈Rpμk∈Rp\mu_k\in\mathbb{R}^p, де 1 ≤ k ≤ K1≤k≤K1\leq k\leq K і кожен з них має однакову ко-дисперсійну матрицю ΣΣ\Sigma і припустимо це ΣΣ\Sigmaє діагональною матрицею. …

1
Конвергенція з алгоритму ЕМ з розподілом біваріантної суміші
У мене є змішана модель, яку я хочу знайти максимальну оцінку ймовірності заданого набору даних та набір частково спостережуваних даних . Я реалізував як E-крок (обчислення очікування заданих і поточних параметрів ), так і M-крок, щоб мінімізувати негативну ймовірність журналу з огляду на очікуване .xxxzzzzzzxxxθkθk\theta^kzzz Як я зрозумів, максимальна ймовірність …

1
Чому алгоритм ЕМ повинен бути ітеративним?
Припустимо, у вас є сукупність з одиниць, кожна з випадковою змінною . Ви спостерігаєте значення для будь-якої одиниці, для якої . Ми хочемо оцінити .NNNXi∼Poisson(λ)Xi∼Poisson(λ)X_i \sim \text{Poisson}(\lambda)n=N−n0n=N−n0n = N-n_0Xi>0Xi>0X_i > 0λλ\lambda Існують метод моментів та умовно-максимальна ймовірність способів отримання відповіді, але я хотів спробувати алгоритм ЕМ. Я отримую алгоритм ЕМ …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.