Запитання з тегом «maximum-likelihood»

метод оцінки параметрів статистичної моделі шляхом вибору значення параметра, що оптимізує ймовірність спостереження за даною вибіркою.

2
Як я можу знати, який метод оцінки параметрів вибрати?
Існує досить багато методів оцінки параметрів. MLE, UMVUE, MoM, теоретичні рішення та інші, схоже, вони мають досить логічний випадок, чому вони корисні для оцінки параметрів. Чи будь-який один метод кращий за інші, або це лише питання про те, як ми визначаємо, що таке "найкраще підходить" оцінка (подібно до того, як …

1
Які умови регулярності тесту на коефіцієнт ймовірності
Чи не будь-хто, будь ласка, скажіть мені, які умови регулярності для асимптотичного розподілу тесту на коефіцієнт ймовірності? Куди б я не глянув, написано: "За умовами регулярності" або "Під імовірнісними закономірностями". Які саме умови? Що перша та друга похідні імовірності ідентифікації існують, а матриця інформації не дорівнює нулю? Або щось інше …

1
Точний тест Фішера та гіпергеометричне поширення
Я хотів краще зрозуміти точний тест Фішера, тому я розробив наступний іграшковий приклад, де f і m відповідає чоловічому та жіночому, а n і y відповідає такому "споживання соди", як це: > soda_gender f m n 0 5 y 5 0 Очевидно, це різке спрощення, але я не хотів, щоб …

4
Порівнюючи максимальну оцінку ймовірності (MLE) та теорему Байєса
У теорії Байєса , а з книги, яку я читаю, називається ймовірність , але я припускаю , що це всього лише умовна ймовірність від дається , НЕ так?p(y|x)=p(x|y)p(y)p(x)p(y|x)=p(x|y)p(y)p(x)p(y|x) = \frac{p(x|y)p(y)}{p(x)}p(x|y)p(x|y)p(x|y)xxxyyy В оцінці максимальної правдоподібності намагається максимізувати , НЕ так? Якщо так, я сильно плутаюсь, тому що це обидві випадкові величини, …

4
Наскільки великою повинна бути вибірка для заданої методики та параметрів оцінки?
Чи існує велике правило або взагалі якийсь спосіб сказати, наскільки великим повинен бути зразок, щоб оцінити модель з заданою кількістю параметрів? Так, наприклад, якщо я хочу оцінити регресію найменших квадратів з 5 параметрами, наскільки великим повинен бути зразок? Чи не має значення, яку техніку оцінювання ви використовуєте (наприклад, максимальна ймовірність, …

4
Наскільки значущим є зв’язок між MLE та крос-ентропією у глибокому навчанні?
Я розумію , що даний набір mmm незалежних спостережень максимального правдоподібності оцінювач (або, що еквівалентно, карта з плоскою / рівномірної до) , який ідентифікує параметрів , які виробляють розподіл моделі що найкраще відповідає цим спостереженнямO={o(1),...,o(m)}O={o(1),...,o(m)}\mathbb{O}=\{\mathbf{o}^{(1)}, . . . , \mathbf{o}^{(m)}\}θθ\mathbf{θ}pmodel(⋅;θ)pmodel(⋅;θ)p_{model}\left(\,\cdot\, ; \mathbf{θ}\right) θML(O)=pmodel(O;θ)=argmaxθ‎‎∏i=1mpmodel(o(i);θ)θML(O)=pmodel(O;θ)=arg⁡maxθ‎‎∏i=1mpmodel(o(i);θ)\mathbf{θ}_{ML}(\mathbb{O})= p_{model}\left(\mathbb{O}; \mathbf{θ}\right) = \underset{\mathbf{θ}}{\arg\max}‎‎\prod_{i=1}^{m} p_{model}\left(\mathbf{o}^{(i)}; \mathbf{θ}\right) або, …

1
Як зрозуміти, що MLE Variance є упередженим у розподілі Гаусса?
Я читаю PRML, і картину не розумію. Скажіть, будь ласка, кілька підказок, щоб зрозуміти картину, і чому MLE дисперсії в гауссовій розподілі упереджений? формула 1,55: формула 1.56 μMLE=1N∑n=1NxnμMLE=1N∑n=1Nxn \mu_{MLE}=\frac{1}{N} \sum_{n=1}^N x_n σ2MLE=1N∑n=1N(xn−μMLE)2σMLE2=1N∑n=1N(xn−μMLE)2 \sigma_{MLE}^2=\frac{1}{N}\sum_{n=1}^{N}(x_n-\mu_{MLE})^2


1
MLE для розподілу трикутників?
Чи можливо застосувати звичайну процедуру MLE до розподілу трикутників? - Я намагаюся, але, схоже, блокується на тому чи іншому кроці в математиці шляхом визначення розподілу. Я намагаюся використати той факт, що я знаю кількість проб вище та нижче c (не знаючи c): ці 2 числа - cn і (1-c) n, …

1
Взаємозв'язок матриці Гессіана та матриці коваріації
Поки я вивчаю оцінку максимальної ймовірності, щоб зробити висновок про максимальну оцінку ймовірності, нам потрібно знати дисперсію. Щоб дізнатись дисперсію, мені потрібно знати нижню межу Рао Крамера, яка на кривині виглядає як матриця Гессея з другою деривацією. Я наче змішаний, щоб визначити взаємозв'язок між матрицею коваріації та матрицею гессіана. Сподіваюся …

2
Максимальні параметри ймовірності відхиляються від заднього розподілу
У мене є функція ймовірності для ймовірності моїх даних урахуванням деяких параметрів моделі , які я хотів би оцінити. Якщо припустити плоскі пріори за параметрами, вірогідність пропорційна задній ймовірності. Я використовую метод MCMC для вибірки цієї ймовірності.L (d| θ)L(г|θ)\mathcal{L}(d | \theta)ггdθ ∈ RNθ∈RN\theta \in \mathbf{R}^N Дивлячись на результуючий конвергентний ланцюг, …

4
Невірогідний висновок - що це означає?
Нещодавно мені стало відомо про «вірогідні» методи, які перебувають у літературі. Однак мені не ясно, що означає спосіб висновку чи оптимізації бути вірогідним . При машинному навчанні мета зазвичай полягає в тому, щоб максимально збільшити ймовірність того, що деякі параметри підходять до функції, наприклад, ваги в нейронній мережі. Тож у …

2
Чому обмежена максимальна ймовірність дає кращу (неупереджену) оцінку дисперсії?
Я читаю теоретичний документ Дуга Бейтса про пакет lme4 R для того, щоб краще зрозуміти складність і змішаність моделей, і натрапив на інтригуючий результат, який я хотів би зрозуміти краще, щодо використання обмеженої максимальної ймовірності (REML) для оцінки дисперсії . У розділі 3.3 щодо критерію REML він зазначає, що використання …

1
Геометрична інтерпретація оцінки максимальної ймовірності
Я читав книгу "Проблема ідентифікації в економетрії " Франкліна М. Фішера, і мене бентежила частина, що він демонструє ідентифікацію шляхом візуалізації функції ймовірності. Проблему можна спростити як: Для регресії , де u ∼ i . i . д . N ( 0 , σ 2 I ) , a і …


Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.