Запитання з тегом «maximum-likelihood»

метод оцінки параметрів статистичної моделі шляхом вибору значення параметра, що оптимізує ймовірність спостереження за даною вибіркою.

1
Чому Anova () та drop1 () надали різні відповіді для GLMM?
У мене є GLMM форми: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Під час використання drop1(model, test="Chi")я отримую інші результати, ніж якщо я використовую Anova(model, type="III")з автомобільного пакета або summary(model). Ці два останні дають однакові відповіді. Використовуючи купу сфабрикованих даних, я виявив, що …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

1
Як ви використовуєте алгоритм ЕМ для обчислення MLE для латентної змінної рецептури нульової надутої моделі Пуассона?
Нульова завищені Пуассона моделі регресії визначається для зразка по і далі передбачається, що параметри та задовольняютьY i = { 0 з вірогідністю p i + ( 1 - p i ) e - λ i k з вірогідністю ( 1 - p i ) e - λ i λ k …

1
Тестування гіпотези на матриці зворотної коваріації
Припустимо, я спостерігаю iid і хочу перевірити H 0 : A vech ( Σ - 1 ) = a для сумісної матриці A і вектора a . Чи відома робота над цією проблемою?хi∼ N( μ , Σ )xi∼N(μ,Σ)x_i \sim \mathcal{N}\left(\mu,\Sigma\right)Н0: A H0:A H_0: A\ ( Σ- 1) =а(Σ−1)=a\left(\Sigma^{-1}\right) = aАAAаaa …

2
Хороша книга з рівним наголосом на теорію та математику
У мене було достатньо курсів зі статистики в шкільні роки та в університеті. Я добре розумію такі поняття, як, CI, p-значення, інтерпретація статистичної значущості, багаторазове тестування, кореляція, проста лінійна регресія (з найменшими квадратами) (загальні лінійні моделі) та всі тести гіпотези. Мене знайомили з цим більшу частину ранніх часів здебільшого математично. …

2
Трійця тестів з максимальною вірогідністю: що робити, стикаючись із суперечливими висновками?
Тести мультиплікатора Wald, коефіцієнта ймовірності та Lagrange у контексті максимальної оцінки ймовірності є асимптотично еквівалентними. Однак для невеликих зразків вони, як правило, розходяться зовсім небагато, а в деяких випадках призводять до різних висновків. Як їх можна класифікувати відповідно до того, наскільки ймовірним є відхилення нуля? Що робити, коли тести мають …

1
Яка ймовірність цього процесу?
Хворий приймається до лікарні. Тривалість їхнього перебування залежить від двох речей: тяжкості їхніх травм та того, скільки їх страхування готові заплатити, щоб утримати їх у лікарні. Деякі пацієнти залишають передчасно, якщо їх страхування вирішить припинити оплату за перебування. Припустимо наступне: 1) Тривалість перебування розподіляється пуассоном (просто припустимо, що це зараз, …

1
Експоненціальна сім'я: спостережена порівняно з очікуваною достатньою статистикою
Моє запитання виникає при читанні читання "Мінки Діріхле" розподілу Мінки , в якому зазначено наступне без доказів у контексті отримання оцінки максимальної ймовірності розподілу Діріхле на основі спостережень за випадковими векторами: Як і завжди з експоненціальною сім'єю, коли градієнт дорівнює нулю, очікувана достатня статистика дорівнює достатній статистиці, що спостерігається. Я …

1
Упередження оцінок максимальної ймовірності для логістичної регресії
Я хотів би зрозуміти пару фактів щодо максимальної оцінки ймовірності (MLE) для логістичних регресій. Чи правда, що загалом MLE для логістичної регресії є упередженим? Я б сказав «так». Я знаю, наприклад, що розмір вибірки пов'язаний з асимптотичним зміщенням MLE. Чи знаєте ви якісь елементарні приклади цього явища? Якщо MLE упереджений, …

1
Чому байєсівська задня частина концентрується навколо мінімізації розбіжності KL?
Розглянемо байєсівську задню θ ∣ Xθ∣Х\theta\mid X. Асимптотично, його максимум відбувається при оцінці MLE , що просто збільшує ймовірність .θ^θ^\hat \thetaаргмінθfθ( X)аргмінθfθ(Х)\operatorname{argmin}_\theta\, f_\theta(X) Усі ці поняття - байесівські пріори, що збільшують ймовірність - звучать супер принципово і зовсім не довільно. Не видно колоди. Однак MLE мінімізує розбіжність KL між реальним …

2
Чи є властивість інваріантності оцінювача ML безглуздою з байєсівської точки зору?
Казелла та Бергер констатують властивість інваріантності оцінювача ML таким чином: Однак мені здається, що вони визначають "ймовірність" ηη\eta повністю ad ​​hoc та безглуздо: Якщо я застосую основні правила теорії ймовірностей до простого випадку η=τ(θ)=θ2η=τ(θ)=θ2\eta=\tau(\theta)=\theta^2, Я натомість отримую наступне: L ( η| x)=p(x |θ2= η) = p ( x | θ …

1
Зв'язок між MLE та найменшими квадратами у випадку лінійної регресії
Хасті та Тібшірані згадують у розділі 4.3.2 своєї книги, що у лінійній регресії підхід найменших квадратів насправді є особливим випадком максимальної вірогідності. Як ми можемо довести цей результат? PS: Не шкодуйте математичних деталей.

2
Довідка в очікуванні Максимізація з паперу: як включити попередній розподіл?
Питання грунтується на роботі під назвою: Реконструкція зображення в дифузній оптичній томографії за допомогою зв'язаної моделі радіаційного транспорту-дифузії. Посилання для завантаження Автори застосовують алгоритм ЕМ з регуляризацією розрідженості невідомого вектораl1l1l_1μμ\muдля оцінки пікселів зображення. Модель задана y=Aμ+e(1)(1)y=Aμ+ey=A\mu + e \tag{1} Оцінка наведена у рівнянні (8) як μ^=argmaxlnp(y|μ)+γlnp(μ)(2)(2)μ^=arg⁡maxln⁡p(y|μ)+γln⁡p(μ)\hat{\mu} = \arg max {\ln …

1
Чому коефіцієнти лінійної та логістичної регресії неможливо оцінити за допомогою одного методу?
Я читав у книзі машинного навчання, що параметри лінійної регресії можна оцінити (серед інших методів) за допомогою градієнтного спуску, тоді як параметри логістичної регресії зазвичай оцінюються за максимальною оцінкою ймовірності. Чи можна пояснити новакові (мені), чому нам потрібні різні методи для лінійної / логістичної регресії. а чому б не MLE …

1
Конвергенція з алгоритму ЕМ з розподілом біваріантної суміші
У мене є змішана модель, яку я хочу знайти максимальну оцінку ймовірності заданого набору даних та набір частково спостережуваних даних . Я реалізував як E-крок (обчислення очікування заданих і поточних параметрів ), так і M-крок, щоб мінімізувати негативну ймовірність журналу з огляду на очікуване .xxxzzzzzzxxxθkθk\theta^kzzz Як я зрозумів, максимальна ймовірність …

1
Чи байєсівська оцінка з "рівним попереднім" збігається з максимальною оцінкою ймовірності?
У філогенетиці філогенетичні дерева часто будують за допомогою MLE або Bayesian аналізу. Часто в байєсівській оцінці використовується рівна квартира. Як я розумію, байєсівська оцінка - це ймовірність оцінки, яка містить попередній показник. Моє запитання: якщо ви використовуєте квартиру до того, чи відрізняється вона від простого аналізу ймовірності?

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.