Запитання з тегом «likelihood»

Дано випадкову змінну Xякі виникають при параметризованому розподілі , ймовірність визначається як вірогідність спостережуваних даних як функціяF(X;θ)θ:L(θ)=P(θ;X=x)

5
Приклад, де має значення принцип правдоподібності * насправді *?
Чи є приклад, коли два різних тести, що захищаються, з пропорційною ймовірністю призвели б до помітно різних (і однаково захищаються) висновків, наприклад, де значення p є порядком величин, але потужність до альтернатив аналогічна? Усі приклади, які я бачу, є дуже нерозумними, порівнюючи двочлен з негативним двочленним, де р-значення першого становить …

2
Якщо принцип ймовірності зіткнеться з частою частотою ймовірності, тоді ми відкинемо одну з них?
У коментарі, нещодавно опублікованому тут, один із коментаторів вказав на блог Ларрі Вассермана, який зазначає (без жодних джерел), що частота виводки суперечить принципу ймовірності. Принцип ймовірності просто говорить, що експерименти, що дають подібні функції ймовірності, повинні давати аналогічні умовиводи. Дві частини цього питання: Які частини, аромат чи школа частого виведення …

1
Які недоліки ймовірності профілю?
Розглянемо вектор параметрів , з параметром, що цікавить, і параметром неприємності.θ 1 θ 2(θ1,θ2)(θ1,θ2)(\theta_1, \theta_2)θ1θ1\theta_1θ2θ2\theta_2 Якщо є ймовірність, побудована з даних , вірогідність профілю для визначається як де є MLE для фіксованого значення .х & thetas 1 L P ( & thetas 1 ; х ) = L ( θ …

5
Що означає "ймовірність визначена лише до мультиплікативної константи пропорційності"?
Я читаю документ, де автори ведуть з обговорення максимальної оцінки ймовірності до теореми Байєса, нібито як вступу для початківців. Як імовірний приклад, вони починаються з біноміального розподілу: p(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,\theta) = \binom{n}{x}\theta^x(1-\theta)^{n-x} а потім запишіть обидві сторони ℓ(θ|x,n)=xln(θ)+(n−x)ln(1−θ)ℓ(θ|x,n)=xln⁡(θ)+(n−x)ln⁡(1−θ)\ell(\theta|x, n) = x \ln (\theta) + (n-x)\ln (1-\theta) з обґрунтуванням, що: "Оскільки ймовірність визначається …

4
Теоретична мотивація використання лого-ймовірності проти ймовірності
Я намагаюсь зрозуміти на більш глибокому рівні всюдисутність імовірності логарифма (і, можливо, більш загальної логістичної ймовірності) в статистиці та теорії ймовірностей. Імовірності журналу з'являються всюди: ми зазвичай працюємо з логопедичністю для аналізу (наприклад, для максимізації), інформація про Фішера визначається з точки зору другої похідної вірогідності журналу, ентропія - очікувана вірогідність …

4
Чим байєсівська рамка краще тлумачиться, коли ми зазвичай використовуємо неінформативні або суб'єктивні пріори?
Часто стверджується, що байєсівська рамка має велику перевагу в інтерпретації (над частотою), оскільки вона обчислює ймовірність параметра, заданого даними - замість як у частістські рамки. Все йде нормально.p ( x | θ )p ( θ | x )p(θ|x)p(\theta|x)p ( x | θ )p(x|θ)p(x|\theta) Але, ціле рівняння засноване на: p ( …

1
Питання щодо принципу ймовірності
В даний час я намагаюся зрозуміти Принцип ймовірності, і я, відверто кажучи, не розумію цього. Отже, я запишу все своє запитання як список, навіть якщо це можуть бути досить основними питаннями. Що саме означає фраза "вся інформація" в контексті цього принципу? (як і вся інформація у вибірці міститься у функції …

2
Порівняння AIC моделі та її перетвореної на журнал версії
Суть мого питання полягає в наступному: Нехай - багатоваріантна нормальна випадкова величина із середнім та матрицею коваріації . Нехай , тобто . Як я порівняю AIC моделі, придатної до спостережуваних реалізацій порівняно з моделлю, придатною до спостережуваних реалізацій ?Y∈RnY∈RnY \in \mathbb{R}^nμμ\muΣΣ\SigmaZ:=log(Y)Z:=log⁡(Y)Z := \log(Y)Zi=log(Yi),i∈{1,…,n}Zi=log⁡(Yi),i∈{1,…,n}Z_i = \log(Y_i), i \in \{1,\ldots,n\}YYYZZZ Моє початкове …

2
Що може бути прикладом дійсно простої моделі з непереборною ймовірністю?
Орієнтовна обчислення Байєса - це дійсно класна методика підгонки в основному будь-якої стохастичної моделі, призначена для моделей, де ймовірність не виправдана (скажімо, ви можете зробити вибірку з моделі, якщо ви фіксуєте параметри, але не можете чисельно, алгоритмічно чи аналітично обчислити ймовірність). При впровадженні аудиторії приблизних байєсівських обчислень (ABC) приємно використовувати …

3
Пошук MLE для однозначного експоненціального процесу Хоукса
Універсальний експоненціальний процес Хоукса - це захоплюючий точковий процес зі швидкістю прибуття події: λ(t)=μ+∑ti&lt;tαe−β(t−ti)λ(t)=μ+∑ti&lt;tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} де - часи прибуття події.t1,..tnt1,..tn t_1,..t_n Функція вірогідності журналу є −tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln(μ+αe−β(tj−ti))−tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln⁡(μ+αe−β(tj−ti)) - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + \sum\limits_{i<j}{\ln(\mu+\alpha e^{-\beta(t_j-t_i)})} які можна обчислити рекурсивно: −tnμ+αβ∑(e−β(tn−ti)−1)+∑ln(μ+αR(i))−tnμ+αβ∑(e−β(tn−ti)−1)+∑ln⁡(μ+αR(i)) - t_n \mu …

2
Чи насправді часто відвідувачі-байсеки є неявними / мимовільними байєсами?
Для даної проблеми висновку ми знаємо, що байєсівський підхід зазвичай відрізняється як за формою, так і за результатами підходу фекзиста. Часто лікарі (зазвичай включають мене) часто зазначають, що їхні методи не вимагають попереднього, а отже, більше "керованих даними", ніж "обґрунтованих судженнями". Звичайно, Байєсіанські можуть вказувати на неінформативні пріори, або, будучи …

2
Що таке філософія у вольтметрі?
Що таке філософія вольтметра та його варіацій? Ідея цього полягає в тому, що статистичний аналіз, який звертається до гіпотетичних подій, повинен був би бути переглянутий, якби згодом було зрозуміло, що ці гіпотетичні події не могли відбутися, як передбачалося. Версія історії в Вікіпедії наводиться нижче. Інженер малює випадковий зразок електронних трубок …

1
Чи потрібно дотримуватися принципу ймовірності бути баєсом?
Це запитання випливає із запитання: Коли (якщо взагалі колись) є частотистський підхід істотно кращий, ніж байєсівський? Як я публікував у своєму вирішенні цього питання, на мою думку, якщо ви є частою діяльністю, вам не доведеться вірити / дотримуватися принципу ймовірності, оскільки часто методи лікарів-чатувальників порушують це. Однак, і це, як …

1
Оцінка параметрів LogLikelihood для лінійного фільтра Гаусса Кальмана
Я написав деякий код, який може робити фільтрацію Кальмана (використовуючи ряд різних фільтрів типу Кальмана [Інформаційний фільтр та ін.]) Для лінійного аналізу простору Гаусса для простору для n-мірного вектора стану. Фільтри чудово працюють, і я отримую хороший вихід. Однак, оцінка параметрів за допомогою оцінки логічності, мене бентежить. Я не статистик, …

2
Процес AR (1) з помилками гетеросцедастичного вимірювання
1. Проблема У мене є деякі вимірювання змінної , де , для яких у мене є розподіл отриманий через MCMC, що для простоти, я вважаю, є гауссом середнього значення та дисперсія . т = 1 , 2 , . . , n f y t ( y t ) μ …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.