Запитання з тегом «maximum-likelihood»

метод оцінки параметрів статистичної моделі шляхом вибору значення параметра, що оптимізує ймовірність спостереження за даною вибіркою.

6
Ймовірність - навіщо розмножуватися?
Я вивчаю оцінку максимальної ймовірності і читаю, що функція ймовірності є добутком ймовірностей кожної змінної. Чому саме продукт? Чому б не сума? Я намагався шукати в Google, але не можу знайти жодних змістовних відповідей. https://en.wikipedia.org/wiki/Maximum_likelihood

3
Чому максимальна ймовірність і не очікувана ймовірність?
Чому так часто буває отримання максимальних оцінок ймовірності параметрів, але ви практично ніколи не чуєте про очікувані оцінки параметрів ймовірності (тобто виходячи з очікуваного значення, а не режиму функції ймовірності)? Це в першу чергу з історичних причин, або з більш предметних технічних чи теоретичних причин? Чи будуть суттєві переваги та …

2
Що розуміється під стандартною помилкою максимальної оцінки ймовірності?
Я математик, який самостійно вивчає статистику і бореться особливо з мовою. У книзі, яку я використовую, є така проблема: Випадкова величина XXX задається як Pareto(α,60)Pareto(α,60)\text{Pareto}(\alpha,60) -розподілений з α>0α>0\alpha>0 . (Звичайно, ви можете взяти будь-який розподіл залежно від одного параметра заради цього питання.) Потім дається вибірка з п'яти значень 141414 , …


4
Які правильні значення для точності та відкликання у кращих випадках?
Точність визначається як: p = true positives / (true positives + false positives) Чи правильно, що як true positivesі false positivesпідхід 0, точність наближається до 1? Те саме запитання для відкликання: r = true positives / (true positives + false negatives) Зараз я впроваджую статистичний тест, де мені потрібно обчислити …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

2
Максимальна оцінка ймовірності - багатоваріантний гаусс
Контекст Багатоваріантний Гауссан часто з'являється в машинному навчанні, і наступні результати використовуються у багатьох книгах та курсах МЛ без виводів. Наведені дані у вигляді матриці розмірів , якщо припустити, що за даними слід варіантний гауссовий розподіл із значеннями параметрів ( ) та матриці коваріації ( ) Оцінки максимальної ймовірності задаються:XX\mathbf{X} …

2
Чому саме оцінка максимальної вірогідності вважається частою методикою
Статистична статистика для мене є синонімом для спроб прийняти рішення, яке підходить для всіх можливих вибірок. Тобто, правило частого прийняття рішення завжди повинне намагатися мінімізувати ризик , що залежить від функції втрати та справжнього стану природи :δδ\deltaLLLθ0θ0\theta_0 Rfr e q= Еθ0( L ( θ0, δ( Y) )Rfrеq=Еθ0(L(θ0,δ(Y))R_\mathrm{freq}=\mathbb{E}_{\theta_0}(L(\theta_0,\delta(Y)) Як максимальна ймовірність …


1
Які недоліки ймовірності профілю?
Розглянемо вектор параметрів , з параметром, що цікавить, і параметром неприємності.θ 1 θ 2(θ1,θ2)(θ1,θ2)(\theta_1, \theta_2)θ1θ1\theta_1θ2θ2\theta_2 Якщо є ймовірність, побудована з даних , вірогідність профілю для визначається як де є MLE для фіксованого значення .х & thetas 1 L P ( & thetas 1 ; х ) = L ( θ …

6
Яка «основна» ідея машинного навчання для оцінки параметрів?
"Основна" ідея статистики для оцінки параметрів - максимальна ймовірність . Мені цікаво, яка відповідна ідея в машинному навчанні. Qn 1. Було б справедливо сказати, що "фундаментальною" ідеєю в машинному навчанні для оцінки параметрів є: "Функції втрати" [Примітка. Мені здається, що алгоритми машинного навчання часто оптимізують функцію втрат і, отже, вищезазначене …

3
Максимальна вірогідність повної інформації щодо відсутніх даних у R
Контекст : Ієрархічна регресія з деякими відсутніми даними. Питання : Як я можу використовувати оцінку максимальної ймовірності повної інформації (FIML) для адреси відсутніх даних у R? Чи є пакет, який ви б рекомендували, і які типові кроки? Інтернет-ресурси та приклади також були б дуже корисними. PS : Я соціальний вчений, …

5
Використання lmer для прогнозування
Привіт, у мене є дві проблеми, які звучать як природні кандидати для багаторівневих / змішаних моделей, які я ніколи не використовував. Найпростіший і той, який я сподіваюся спробувати як вступ, такий: Дані виглядають як багато рядків форми x y innergroup outergroup де x - числовий коваріат, на якому я хочу …

2
REML або ML для порівняння двох моделей змішаних ефектів з різними фіксованими ефектами, але з однаковим випадковим ефектом?
Фон: Примітка: Мій набір даних та r-код містяться під текстом Я хочу використовувати AIC для порівняння двох моделей змішаних ефектів, згенерованих за допомогою пакету lme4 у Р. Кожна модель має один фіксований ефект та один випадковий ефект. Фіксований ефект відрізняється між моделями, але випадковий ефект залишається однаковим між моделями. Я …

1
MLE проти найменших квадратів у примірному розподілі ймовірностей
Враження, яке я склав, грунтуючись на кількох прочитаних нами працях, книгах та статтях, полягає в тому, що рекомендований спосіб встановлення розподілу ймовірностей на набір даних - це використання максимальної оцінки ймовірності (MLE). Однак, як фізик, більш інтуїтивно зрозумілим способом є просто пристосування pdf моделі до емпіричного pdf даних, використовуючи найменші …

1
Коли максимальна ймовірність та метод моментів дають однакові оцінки?
Мені було задано це питання на днях і ніколи раніше його не розглядали. Моя інтуїція випливає з переваг кожного оцінювача. Максимальна ймовірність є переважно тоді, коли ми впевнені в процесі генерації даних, оскільки, на відміну від методу моментів, він використовує знання всього розподілу. Оскільки оцінювачі MoM використовують лише інформацію, що …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.