Запитання з тегом «likelihood»

Дано випадкову змінну Xякі виникають при параметризованому розподілі , ймовірність визначається як вірогідність спостережуваних даних як функціяF(X;θ)θ:L(θ)=P(θ;X=x)

2
Гессіан вірогідності профілю використовується для стандартної оцінки помилок
Це питання мотивоване цим . Я шукав два джерела, і ось що я знайшов. A. van der Vaart, Асимптотична статистика: Вкрай рідко можливо вирахувати вірогідність профілю, але його чисельне оцінювання часто можливо. Тоді ймовірність профілю може слугувати для зменшення розмірності функції ймовірності. Функції правдоподібності профілю часто використовуються так само, як …

3
Імовірність проти умовного розподілу для байєсівського аналізу
Ми можемо записати теорему Байєса як p(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} де - задній, - умовний розподіл, а - попередній.p(θ|x)p(θ|x)p(\theta|x)f(X|θ)f(X|θ)f(X|\theta)p(θ)p(θ)p(\theta) або p(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(\theta|x) = \frac{L(\theta|x)p(\theta)}{\int_{\theta} L(\theta|x)p(\theta)d\theta} де - задній, - функція ймовірності, а - пріоритетна.p(θ|x)p(θ|x)p(\theta|x)L(θ|x)L(θ|x)L(\theta|x)p(θ)p(θ)p(\theta) Моє запитання Чому баєсівський аналіз робиться за допомогою функції ймовірності, а не умовного розподілу? Чи можете ви …

2
Розуміння логістичної регресії та ймовірності
Як насправді працює оцінка параметрів / Навчання логістичній регресії? Я спробую поставити те, що у мене поки що. Вихід - y вихід логістичної функції у вигляді ймовірності залежно від значення x: P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)={1\over1+e^{-\omega^Tx}}\equiv\sigma(\omega^Tx) P(y=0|x)=1−P(y=1|x)=1−11+e−ωTxP(y=0|x)=1−P(y=1|x)=1−11+e−ωTxP(y=0|x)=1-P(y=1|x)=1-{1\over1+e^{-\omega^Tx}} Для одного виміру так звані коефіцієнти визначаються наступним чином: p(y=1|x)1−p(y=1|x)=p(y=1|x)p(y=0|x)=eω0+ω1xp(y=1|x)1−p(y=1|x)=p(y=1|x)p(y=0|x)=eω0+ω1x{{p(y=1|x)}\over{1-p(y=1|x)}}={{p(y=1|x)}\over{p(y=0|x)}}=e^{\omega_0+\omega_1x} Тепер додаємо logфункції для отримання W_0 та …

5
Як виконати імпутацію значень у дуже великій кількості точок даних?
У мене дуже великий набір даних, і близько 5% випадкових значень відсутні. Ці змінні співвідносяться між собою. Наступний приклад набору даних R - це лише іграшковий приклад з манекено-корельованими даними. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

6
Якщо ви використовуєте точкову оцінку, яка максимізує
Якби хтось сказав "Цей метод використовує MLE бальну оцінку для параметра, який максимізує , тому він є частосистемним; і далі він не баєсовский."P ( x | θ )P(x|θ)\mathrm{P}(x|\theta) ти погодився б? Оновлення на задньому плані : нещодавно я прочитав статтю, яка стверджує, що вона часто. Я не згоден з їх …

3
Чому вірогідність фільтра Кальмана обчислюється з використанням результатів фільтрування замість плавніших результатів?
Я використовую фільтр Кальмана дуже стандартним способом. Система представлена ​​рівнянням стану та рівнянням спостереження .xt+1=Fxt+vt+1xt+1=Fxt+vt+1x_{t+1}=Fx_{t}+v_{t+1}yt=Hxt+Azt+wtyt=Hxt+Azt+wty_{t}=Hx_{t}+Az_{t}+w_{t} Підручники вчать, що після застосування фільтра Кальмана та отримання "прогнозів на крок вперед" (або "відфільтрована оцінка") ми повинні використовувати їх для обчислення ймовірності функції:x^t|t−1x^t|t−1\hat{x}_{t|t-1} fyt|It−1,zt(yt|It−1,zt)=det[2π(HPt|t−1H′+R)]−12exp{−12(yt−Hx^t|t−1−Azt)′(HPt|t−1H′+R)−1(yt−Hx^t|t−1−Azt)}fyt|It−1,zt(yt|It−1,zt)=det[2π(HPt|t−1H′+R)]−12exp⁡{−12(yt−Hx^t|t−1−Azt)′(HPt|t−1H′+R)−1(yt−Hx^t|t−1−Azt)}f_{y_{t}|\mathcal{I}_{t-1},z_{t}}\left(y_{t}|\mathcal{I}_{t-1},z_{t}\right)=\det\left[2\pi\left(HP_{t|t-1}H^{\prime}+R\right)\right]^{-\frac{1}{2}}\exp\left\{ -\frac{1}{2}\left(y_{t}-H\hat{x}_{t|t-1}-Az_{t}\right)^{\prime}\left(HP_{t|t-1}H^{\prime}+R\right)^{-1}\left(y_{t}-H\hat{x}_{t|t-1}-Az_{t}\right)\right\} Моє запитання: Чому функція ймовірності обчислюється за допомогою "відфільтрованої …

2
Чому задня густина пропорційна функції ймовірності попереднього часу густини?
Згідно теореми Байєса, . Але згідно з моїм економетричним текстом, це говорить, що P ( θ | y ) ∝ P ( y | θ ) P ( θ ) . Чому це так? Я не розумію, чому P ( y ) ігнорується.П( у| θ)Р( θ ) = P( θ …

1
Перерахуйте ймовірність журналу з простої моделі R lm
Я просто намагаюся перерахувати за допомогою dnorm () імовірність журналу, яку забезпечує функція logLik з lm-моделі (в R). Він працює (майже ідеально) для великої кількості даних (наприклад, n = 1000): > n <- 1000 > x <- 1:n > set.seed(1) > y <- 10 + 2*x + rnorm(n, 0, 2) …

1
Р-значення та ймовірність принципу
Це запитання виникло в класі: Якщо ми використовуємо p-значення для оцінки гіпотез експерименту, якої частини Принципу ймовірності ми не підкоряємося: Достатність чи обумовленість ? Моя інтуїція полягає в тому, щоб сказати, що достатність , оскільки обчислення р-значення покладається на незабезпечені результати експерименту, а Достатність, здається, більше справляється зі спостереженнями в …

4
Як інтерпретувати криву виживання моделі Кокса?
Як ви інтерпретуєте криву виживання з пропорційною моделлю небезпеки Кокса? У цьому прикладі іграшки, припустимо, ми маємо коксову пропорційну модель небезпеки для ageзмінної kidneyданих та генеруємо криву виживання. library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Наприклад, на час 200200200, яке твердження вірно? або обидва помиляються? Заява 1: у …

1
Чи байєсівська оцінка з "рівним попереднім" збігається з максимальною оцінкою ймовірності?
У філогенетиці філогенетичні дерева часто будують за допомогою MLE або Bayesian аналізу. Часто в байєсівській оцінці використовується рівна квартира. Як я розумію, байєсівська оцінка - це ймовірність оцінки, яка містить попередній показник. Моє запитання: якщо ви використовуєте квартиру до того, чи відрізняється вона від простого аналізу ймовірності?

1
Спостережена інформація Фішера під час перетворення
З "По всій вірогідності: статистичне моделювання та умовивід з використанням ймовірності" Ю. Павітана, ймовірність повторної параметризації визначається як так що якщо g один-до-одного, то L ^ * (\ psi) = L (g ^ {- 1} (\ psi)) (стор. 45). Я намагаюся показати вправу 2.20, в якій сказано, що якщо \ …

2
Надійна оцінка MCMC граничної ймовірності?
Я намагаюся обчислити граничну ймовірність статистичної моделі методами Монте-Карло: f( x ) = ∫f( x ∣ θ ) π( θ )гθf(х)=∫f(х∣θ)π(θ)гθf(x) = \int f(x\mid\theta) \pi(\theta)\, d\theta Ймовірність добре ведеться - гладка, увігнута - але високомірна. Я спробував вибірку важливості, але результати непросто і сильно залежать від пропозиції, яку я використовую. …

1
Обчислення ймовірності журналу для даного MLE (Марківські ланцюги)
В даний час я працюю з ланцюгами Маркова і обчислюю максимальну оцінку ймовірності, використовуючи ймовірності переходу, як це запропоновано декількома джерелами (тобто, кількість переходів від a до b, поділене на кількість загальних переходів від a до інших вузлів). Тепер я хочу обчислити ймовірність MLE для журналу.
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.