Запитання з тегом «inference»

Зроблення висновків щодо параметрів населення із вибіркових даних. Дивіться https://en.wikipedia.org/wiki/Inference та https://en.wikipedia.org/wiki/Statistic_inference

3
Як би ви зробили байєсівську ANOVA та регресію в R? [зачинено]
Зачинено. Це питання поза темою . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для перехресної перевірки. Закрито 2 роки тому . У мене досить простий набір даних, що складається з однієї незалежної змінної, однієї залежної змінної та категоріальної змінної. У мене є багато …

2
Оптимальний програмний пакет для байєсівського аналізу
Мені було цікаво, який програмний статистичний пакет ви рекомендуєте для виконання байєсівських висновків. Наприклад, я знаю, що ви можете запускати openBUGS або winBUGS як автономні або ви можете також викликати їх від R. Але R також має кілька власних пакетів (MCMCPack, BACCO), які можуть робити байєсівський аналіз. Хто-небудь має пропозиції …

3
Хороші підсумки (огляди, книги) про різні додатки мережі Марків Монте-Карло (MCMC)?
Чи є хороші підсумки (огляди, книги) про різні додатки ланцюга Марків Монте-Карло (MCMC)? Я бачив « Марківський ланцюг Монте-Карло» на практиці , але ця книга здається трохи старовинною. Чи є більше оновлених книг щодо різних застосувань MCMC в таких областях, як машинне навчання, комп'ютерний зір та обчислювальна біологія?

6
Оцінка MLE проти MAP, коли використовувати який?
MLE = Максимальна оцінка ймовірності MAP = Максимум a posteriori MLE інтуїтивно зрозумілий / наївний тим, що він починається лише з ймовірності спостереження за даним параметром (тобто функцією ймовірності) і намагається знайти параметр, що найкраще відповідає спостереженню . Але це не враховує попередніх знань. MAP видається більш розумним, оскільки він …

2
Проблема щодо оцінюваності параметрів
Нехай і - чотири випадкові величини, такі, що , де - невідомі параметри. Припустимо також, що ,Тоді яка з них справжня?Y1, Y2, Y3Y1,Y2,Y3Y_1,Y_2,Y_3Y4Y4Y_4Е( Y1) = θ1- θ3; Е ( Y2) = θ1+ θ2- θ3; Е ( Y3) = θ1- θ3; Е ( Y4) = θ1- θ2- θ3E(Y1)=θ1−θ3; E(Y2)=θ1+θ2−θ3; E(Y3)=θ1−θ3; E(Y4)=θ1−θ2−θ3E(Y_1)=\theta_1-\theta_3;\space\space …

1
Чи часто у практичному застосуванні часто використовують умовні умовиводи?
Нещодавно я переглянув деякі старі статті Ненсі Рейд, Барндорфа-Нільсена, Річарда Кокса і, так, маленького Рональда Фішера про концепцію «умовного умовиводу» у частою парадигмі, що, мабуть, означає, що умовиводи засновані на врахуванні лише "відповідний підмножина" простору вибірки, а не всього простору вибірки. В якості ключового прикладу відомо, що довірчі інтервали, засновані …

3
Чому слід
У моделі ми могли б оцінити за допомогою звичайного рівняння:y=Xβ+ϵy=Xβ+ϵ{y} = X \beta + \epsilonββ\beta у =Х β .β^=(X′X)−1X′y,β^=(X′X)−1X′y,\hat{\beta} = (X'X)^{-1}X'y, і ми могли б отриматиy^=Xβ^.y^=Xβ^.\hat{y} = X \hat{\beta}. Вектор залишків оцінюється за ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,\hat{\epsilon} = y - X \hat{\beta} = (I - X (X'X)^{-1} X') y = Q y = …

1
Неправильний висновок, коли спостереження не є незалежними
З елементарної статистики я дізнався, що для загальної лінійної моделі, щоб умовиводи були дійсними, спостереження повинні бути незалежними. Якщо відбувається кластеризація, незалежність може більше не приводити до недійсного висновку, якщо це не враховується. Один із способів обліку такої кластеризації - це використання змішаних моделей. Я хотів би знайти приклад набору …

2
Приклад непослідовного оцінювача максимальної вірогідності
Я читаю коментар до статті, і автор стверджує, що іноді, хоча оцінювачі (знайдені за ML або максимальною квазіімовірністю) можуть бути невідповідними, потужність коефіцієнта ймовірності або тесту квазівірогідності все ж може сходитися до 1, оскільки кількість спостережуваних даних має тенденцію до нескінченності (консистенція тесту). Як і коли це відбувається? Чи знаєте …


1
Чи пропонують співвідношення правдоподібності та порівняння моделі Байєса вищі та достатні альтернативи тестуванню гіпотез на нуль?
У відповідь на зростаючу групу статистиків та дослідників, які критикують корисність тестування гіпотез (NHT) для науки як сукупного зусилля, Американська спеціальна група психологічних асоціацій зі статистичних висновків уникала прямої заборони НТГ, але натомість запропонувала дослідникам повідомляти розміри ефекту на додаток до p-значень, отриманих від NHT. Однак розміри ефектів не просто …

2
Інтернет-ресурси для вивчення статистики, вправ (з рішеннями)?
Зараз я працюю асистентом викладання у своєму університеті, на вступному курсі статистики (для студентів-медиків). В автономному режимі доступно багато книг з інформацією, яка допомагає вчителю. Однак, що мені цікаво знати, якщо ви можете направити мене на будь-які (хороші) ресурси, які надають вправи (з рішеннями) статистики, які доступні в Інтернеті? (наприклад: …

2
Як визначити регіон відхилення, коли немає UMP?
Розглянемо модель лінійної регресії y=Xβ+uy=Xβ+u\mathbf{y}=\mathbf{X\beta}+\mathbf{u} , u∼N(0,σ2I)u∼N(0,σ2I)\mathbf{u}\sim N(\mathbf{0},\sigma^2\mathbf{I}) , E(u∣X)=0E(u∣X)=0E(\mathbf{u}\mid\mathbf{X})=\mathbf{0} . Нехай H0:σ20=σ2H0:σ02=σ2H_0: \sigma_0^2=\sigma^2 проти H1:σ20≠σ2H1:σ02≠σ2H_1: \sigma_0^2\neq\sigma^2 . Ми можемо зробити висновок, що yTMXyσ2∼χ2(n−k)yTMXyσ2∼χ2(n−k)\frac{\mathbf{y}^T\mathbf{M_X}\mathbf{y}}{\sigma^2}\sim \chi^2(n-k) , де dim(X)=n×kdim(X)=n×kdim(\mathbf{X})=n\times k . І MXMX\mathbf{M_X} є типовим позначенням матриці знищення MXy=y^MXy=y^\mathbf{M_X}\mathbf{y}=\hat{\mathbf{y}} , де y^y^ \hat{\mathbf{y}} є залежною змінною yy\mathbf{y} регресував на XX\mathbf{X} . …

2
Формула для 95% довірчого інтервалу для
Я гуглив і шукав stats.stackexchange, але не можу знайти формулу для обчислення 95% довірчого інтервалу для значення для лінійної регресії. Хтось може це надати?R2R2R^2 Ще краще, скажімо, я провів лінійну регресію нижче в R. Як би я обчислив 95% довірчий інтервал для значення за допомогою коду R.R2R2R^2 lm_mtcars <- lm(mpg …

1
Загалом, чи зробити висновок складніше, ніж робити прогнозування?
Моє запитання випливає з наступного факту. Я читав дописи, блоги, лекції, а також книги про машинне навчання. Моє враження, що практикуючі машинного навчання, здається, байдужі до багатьох речей, про які піклуються статистики / економетрики. Зокрема, фахівці з машинного навчання наголошують на точності прогнозування щодо висновку. Один із таких прикладів трапився, …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.