Запитання з тегом «maximum-likelihood»

метод оцінки параметрів статистичної моделі шляхом вибору значення параметра, що оптимізує ймовірність спостереження за даною вибіркою.

11
Максимальна оцінка ймовірності (MLE) в простому плані
Чи може хтось детально пояснити мені про максимальну оцінку ймовірності (MLE) з точки зору мирян? Я хотів би дізнатись основної концепції, перш ніж переходити до математичного виведення чи рівняння.

3
Що таке "обмежена максимальна ймовірність" і коли її слід використовувати?
У рефераті цієї статті я прочитав : "Процедура максимальної ймовірності (ML) Хартлі ауд Рао модифікується шляхом адаптації трансформації від Паттерсона і Томпсона, яка розділяє ймовірність, що забезпечує нормальність на дві частини, причому одна не має фіксованих ефектів. Максимізація цієї частини дає результат, що називається обмеженою максимальною ймовірністю. (REML) оцінки. " …

8
Створити випадкову змінну з визначеною кореляцією до існуючої змінної
Для дослідження моделювання я повинен генерувати випадкові змінні , які показують prefined (населення) кореляцію з існуючою YYY . Я подивився в Rпакети copulaі CDVineякі можуть виробляти випадкові багатовимірні розподілу із заданою структурою залежностей. Однак неможливо зафіксувати одну із отриманих змінних до існуючої змінної. Будь-які ідеї та посилання на існуючі функції …

7
Приклади, де метод моментів може перемогти максимальну ймовірність у невеликих зразках?
Максимальні оцінки вірогідності (MLE) є асимптотично ефективними; ми бачимо практичний підсумок у тому, що вони часто роблять краще, ніж метод моментних оцінок (MoM) (коли вони різняться), навіть при невеликих розмірах вибірки Тут "краще, ніж" означає в сенсі, як правило, має меншу дисперсію, коли обидві є неупередженими, і, як правило, меншою …


9
Рекомендована книга з передової статистики
На цьому веб-сайті є кілька тем для рекомендацій щодо вступної статистики та машинного навчання, але я шукаю текст про вдосконалену статистику, включаючи, за пріоритетом: максимальну ймовірність, узагальнені лінійні моделі, аналіз основних компонентів, нелінійні моделі . Я спробував статистичні моделі від AC Davison, але відверто кажучи, мені довелося викласти його після …

2
Основне питання про матрицю інформації Фішера та відношення до гессіанських та стандартних помилок
Гаразд, це досить основне питання, але я трохи розгублений. У своїй дипломній роботі я пишу: Стандартні помилки можна знайти, обчисливши обернену квадратний корінь діагональних елементів (спостережуваної) матриці Інформації Фішера: sμ^,σ^2=1I(μ^,σ^2)−−−−−−√sμ^,σ^2=1I(μ^,σ^2)\begin{align*} s_{\hat{\mu},\hat{\sigma}^2}=\frac{1}{\sqrt{\mathbf{I}(\hat{\mu},\hat{\sigma}^2)}} \end{align*} Оскільки команда оптимізації в R зводить до мінімуму (спостерігається) матриця інформації Фішера можна знайти, обчисливши зворотну частину Гессі: …


4
Чому ми мінімізуємо негативну ймовірність, якщо вона еквівалентна максимізації ймовірності?
Це питання мене спантеличувало вже давно. Я розумію використання 'log' для максимізації ймовірності, тому не запитую про «log». Моє запитання таке: оскільки максимізація ймовірності журналу рівнозначна мінімізації "негативної ймовірності журналу" (NLL), чому ми винайшли цю NLL? Чому ми не використовуємо "позитивну ймовірність" весь час? За яких обставин надається перевага NLL? …

2
Що говорить обернена матриця коваріації про дані? (Інтуїтивно)
Мені цікаво природу . Чи може хто-небудь розповісти щось інтуїтивно про "Що говорить про дані?"Σ−1Σ−1\Sigma^{-1}Σ−1Σ−1\Sigma^{-1} Редагувати: Дякуємо за відповіді Пройшовши кілька чудових курсів, я хотів би додати кілька балів: Це міра інформації, тобто - кількість інформації вздовж напрямку .xxTΣ−1xxTΣ−1xx^T\Sigma^{-1}xxxx Подвійність: Оскільки є позитивно визначеним, тож і , тож вони є …

2
Інтуїція, чому парадокс Штейна застосовується лише в розмірах
Приклад Штейна показує, що максимальна оцінка ймовірності nnn нормально розподілених змінних із значеннями μ1,…,μnμ1,…,μn\mu_1,\ldots,\mu_n та дисперсіями 111 є неприпустимою (за функцією квадратних втрат) iff n≥3n≥3n\ge 3 . Для чіткого доказу дивіться першу главу великомасштабного умовиводу: Емпіричні методи Байєса для оцінки, тестування та прогнозування Бредлі Ефрона. x∼N(μ,1)x∼N(μ,1)x \sim \mathcal N(\mu,1)E∥x∥2≈∥μ∥2+nE‖x‖2≈‖μ‖2+n\mathbb{E}\|x\|^2\approx \|\mu\|^2+n …

3
Інтерпретація прогнозованого прогнозу та / або відповіді перетвореного журналом
Мені цікаво, чи має значення інтерпретація, чи трансформуються лише залежні, і залежні, і незалежні, або лише незалежні змінні. Розглянемо випадок log(DV) = Intercept + B1*IV + Error Я можу трактувати ІV як збільшення відсотка, але як це змінюється, коли я маю log(DV) = Intercept + B1*log(IV) + Error або коли …
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 

8
Чи всі моделі марні? Чи можлива якась точна модель - чи корисна?
Це питання гнається в моїй свідомості вже більше місяця. Випуск Amstat News за лютий 2015 року містить статтю професора Берклі Марка ван дер Лаана, яка лаять людей за використання неточних моделей. Він заявляє, що, використовуючи моделі, статистика - це мистецтво, а не наука. За його словами, завжди можна використовувати "точну …

2
Метод максимальної ймовірності проти методу найменших квадратів
Яка основна відмінність між максимальною оцінкою ймовірності (MLE) та оцінкою найменших квадратів (LSE)? Чому ми не можемо використовувати MLE для прогнозування значень у лінійній регресії та навпаки?yyy Будь-яка допомога з цієї теми буде дуже вдячна.

1
Чому glmer не досягає максимальної ймовірності (як це підтверджено шляхом подальшої загальної оптимізації)?
Чисельне отримання MLE з GLMM є складним, і, на практиці, я знаю, ми не повинні використовувати оптимізацію грубої сили (наприклад, використовуючи optimпростий спосіб). Але для власного навчального призначення я хочу спробувати це, щоб переконатися, що я правильно розумію модель (див. Код нижче). Я виявив, що завжди отримую суперечливі результати glmer(). …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.