Запитання з тегом «maximum-likelihood»

метод оцінки параметрів статистичної моделі шляхом вибору значення параметра, що оптимізує ймовірність спостереження за даною вибіркою.

6
Чи є приклад, коли MLE виробляє упереджену оцінку середнього?
Чи можете ви навести приклад оцінки MLE середнього значення, яке є упередженим? Я не шукаю прикладу, який загалом порушує оцінювачі MLE, порушуючи умови регулярності. Усі приклади, які я бачу в Інтернеті, відносяться до дисперсії, і я не можу знайти щось, що стосується середнього. EDIT @MichaelHardy подав приклад, коли ми отримуємо …

1
моделювання випадкових вибірок із заданим MLE
Це перехресне підтверджене запитання про моделювання вибірки, що обумовлює наявність фіксованої суми, нагадало мені проблему, яку поставив мені Джордж Казелла . f(x|θ)f(x|θ)f(x|\theta)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θθ\thetaθ^(x1,…,xn)=argmin∑i=1nlogf(xi|θ)θ^(x1,…,xn)=arg⁡min∑i=1nlog⁡f(xi|θ)\hat{\theta}(x_1,\ldots,x_n)=\arg\min \sum_{i=1}^n \log f(x_i|\theta)θθ\theta(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θ^(X1,…,Xn)θ^(X1,…,Xn)\hat{\theta}(X_1,\ldots,X_n) Наприклад, візьміть розподіл з параметром розташування , щільність якого Якщо як ми можемо імітувати умовно на ? У цьому прикладі розподіл не має виразу закритої …

2
Неможлива проблема оцінки?
Питання Дисперсія негативного біноміального розподілу (NB) завжди більша за середню. Коли середнє значення вибірки більше, ніж його дисперсія, спроба пристосувати параметри НБ з максимальною вірогідністю або з моментом оцінки не вдасться (рішення з кінцевими параметрами не існує). Однак можливо, що вибірка, взята з розподілу НБ, має значення більше, ніж дисперсія. …

3
Як робити оцінку, коли доступні лише зведені статистичні дані?
Частково це мотивоване наступним запитанням та обговоренням, що слідує за ним. Припустимо, спостерігається зразок iid, Xi∼F(x,θ)Xi∼F(x,θ)X_i\sim F(x,\theta) . Мета - оцінка . Але оригінальний зразок відсутній. Натомість ми маємо деякі статистичні дані зразка . Припустимо , фіксований . Як ми оцінюємо ? Який був би максимальний показник ймовірності в цьому …

1
Властивості логістичних регресій
Ми працюємо з деякими логістичними регресіями, і ми зрозуміли, що середня оцінена ймовірність завжди дорівнює частці одиниць у вибірці; тобто середнє значення пристосованих значень дорівнює середньому зразка. Хтось може мені пояснити причину чи дати мені посилання, де я можу знайти цю демонстрацію?

3
Ідея та інтуїція за квазі-максимальною оцінкою ймовірності (QMLE)
Питання: Яка ідея та інтуїція лежать в основі оцінки максимально можливої ​​ймовірності (QMLE; також відома як псевдооцінка максимальної ймовірності, PMLE)? Що змушує оцінювач працювати, коли фактичний розподіл помилок не відповідає передбачуваному розподілу помилок? Сайт Вікіпедії для QMLE чудовий (короткий, інтуїтивно зрозумілий), але я можу використати ще трохи інтуїції та деталей, …

2
Чому саме використовується спостережена інформація Фішера?
У стандартному налаштуваннях максимальної вірогідності (iid зразок з деякого розподілу з щільністю )) і у випадку коректно вказаної моделі Фішер інформацію надає f y ( y | θ 0Y1,…,YnY1,…,YnY_{1}, \ldots, Y_{n}fy(y|θ0fy(y|θ0f_{y}(y|\theta_{0} I(θ)=−Eθ0[∂2θ2lnfy(θ)]I(θ)=−Eθ0[∂2θ2ln⁡fy(θ)]I(\theta) = -\mathbb{E}_{\theta_{0}}\left[\frac{\partial^{2}}{\theta^{2}}\ln f_{y}(\theta) \right] де очікування приймається щодо справжньої щільності, яка генерувала дані. Я читав, що спостерігається інформація …

3
Підгонка t-розподілу в R: параметр масштабування
Як мені підходять параметри t-розподілу, тобто параметри, що відповідають "середньому" та "стандартному відхиленню" нормального розподілу. Я припускаю, що їх називають "середніми" та "масштабуючими / ступенями свободи" для розподілу t? Наступний код часто призводить до помилок "оптимізації оптимізації". library(MASS) fitdistr(x, "t") Чи потрібно спочатку масштабувати х чи перетворювати на ймовірності? Як …

2
Залишкова стандартна різниця похибок між оптимальним та glm
Я намагаюся відтворити optimрезультати з простої лінійної регресії, забезпеченої glmабо навіть nlsR-функціями. Оцінки параметрів однакові, але оцінка залишкової дисперсії та стандартні похибки інших параметрів не однакові, особливо коли розмір вибірки невеликий. Я припускаю, що це пов'язано з різницею в тому, як обчислюється залишкова стандартна помилка між максимальною ймовірністю та найменшим …

2
Інформаційна матриця, що спостерігається, є послідовною оцінкою очікуваної інформаційної матриці?
Я намагаюся довести, що спостережувана інформаційна матриця, оцінена за слабко послідовним оцінкою максимальної ймовірності (MLE), є слабко послідовним оцінником очікуваної інформаційної матриці. Це широко цитований результат, але ніхто не дає посилань чи доказів (я вичерпав, я думаю, перші 20 сторінок результатів Google і мої підручники з статистикою)! Використовуючи слабко послідовну …

3
Чи потрібні MLE дані про iid? Або просто незалежні параметри?
Оцінка параметрів з використанням максимальної оцінки ймовірності (MLE) включає оцінку функції ймовірності, яка відображає ймовірність виникнення вибірки (X) до значень (x) на просторі параметрів (θ) з заданим сімейством розподілу (P (X = x | θ) ) над можливими значеннями θ (зверніть увагу: чи я прав на це?) Усі приклади, які …

3
Пошук MLE для однозначного експоненціального процесу Хоукса
Універсальний експоненціальний процес Хоукса - це захоплюючий точковий процес зі швидкістю прибуття події: λ(t)=μ+∑ti&lt;tαe−β(t−ti)λ(t)=μ+∑ti&lt;tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} де - часи прибуття події.t1,..tnt1,..tn t_1,..t_n Функція вірогідності журналу є −tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln(μ+αe−β(tj−ti))−tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln⁡(μ+αe−β(tj−ti)) - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + \sum\limits_{i<j}{\ln(\mu+\alpha e^{-\beta(t_j-t_i)})} які можна обчислити рекурсивно: −tnμ+αβ∑(e−β(tn−ti)−1)+∑ln(μ+αR(i))−tnμ+αβ∑(e−β(tn−ti)−1)+∑ln⁡(μ+αR(i)) - t_n \mu …

3
Коли працює максимальна ймовірність, а коли ні?
Мене плутає метод максимальної ймовірності порівняно з, наприклад, обчисленням середнього арифметичного. Коли і чому максимальна ймовірність дає "кращі" оцінки, ніж, наприклад, середнє арифметичне? Як це можна перевірити?


3
Чому для вибору серед вкладених моделей var-covar потрібно використовувати REML (замість ML)?
Різні описи вибору моделі щодо випадкових ефектів лінійних змішаних моделей дають інструкцію використовувати REML. Я знаю різницю між REML та ML на якомусь рівні, але я не розумію, чому REML слід використовувати, оскільки ML є упередженою. Наприклад, чи неправильно проводити LRT за параметром дисперсії звичайної моделі розподілу за допомогою ML …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.