Запитання з тегом «mathematical-statistics»

Математична теорія статистики, що стосується формальних визначень та загальних результатів.

2
Яка максимальна оцінка правдоподібності коваріації біваріантних нормальних даних, коли середнє значення та дисперсія відомі?
Припустимо, у нас є випадкова вибірка з двовимірного нормального розподілу, який має нулі як засоби, а відхилення - тому єдиний невідомий параметр - коваріація. Що таке MLE коваріації? Я знаю, що це має бути щось на зразок але як ми це знаємо?1n∑nj=1xjyj1n∑j=1nxjyj\frac{1}{n} \sum_{j=1}^{n}x_j y_j

2
Скільки обчислення необхідно для розуміння максимальної оцінки ймовірності?
Я намагаюся скласти план навчання для вивчення ПНЖ. Для цього я намагаюся розібратися, який мінімальний рівень обчислення, необхідний для розуміння MLE. Чи достатньо зрозуміти основи обчислення (тобто знайти мінімум та максимум функцій), щоб зрозуміти MLE?

1
Пошук порівнянної групи контролю для групи лікування?
У мене є група лікування розміром 30 (30 шкіл у Каліфорнії), яка використовувала додаткові програми з математики. У простому аналізі я хотів би порівняти середній приріст математики студентів між нашою групою лікування та порівнянною контрольною групою. У CA є багато шкіл, які не використовували програмне забезпечення. Мені б хотілося, щоб …

3
Інформаційно-теоретична центральна межа теореми
Найпростішою формою інформаційно-теоретичного CLT є наступна: Нехай Х1, X2, …Х1,Х2,…X_1, X_2,\dots є iid із середнім значенням 000 та дисперсією . Нехай - щільність нормованої суми а - стандартна щільність Гаусса. Тоді інформаційно-теоретичний CLT стверджує, що якщо кінцевий для деякого n , то D (f_n \ | \ phi) \ до …

3
Чому я отримую ентропію інформації більше 1?
Я реалізував таку функцію для обчислення ентропії: from math import log def calc_entropy(probs): my_sum = 0 for p in probs: if p > 0: my_sum += p * log(p, 2) return - my_sum Результат: >>> calc_entropy([1/7.0, 1/7.0, 5/7.0]) 1.1488348542809168 >>> from scipy.stats import entropy # using a built-in package # …

2
Рішення проблеми німецьких танків
Чи існує формальне математичне підтвердження того, що розв’язання німецької задачі про танк є функцією лише параметрів k (кількість спостережуваних зразків) і m (максимальне значення серед спостережуваних зразків)? Іншими словами, чи можна довести, що рішення не залежить від інших значень вибірки, окрім максимального значення?

1
Про існування UMVUE і вибору оцінки з в населення
Нехай являє собою випадкову вибірку взяті з населення , де .(X1,X2,⋯,Xn)(X1,X2,⋯,Xn)(X_1,X_2,\cdots,X_n)N(θ,θ2)N(θ,θ2)\mathcal N(\theta,\theta^2)θ∈Rθ∈R\theta\in\mathbb R Я шукаю UMVUE .θθ\theta Спільна щільність є(X1,X2,⋯,Xn)(X1,X2,⋯,Xn)(X_1,X_2,\cdots,X_n) fθ(x1,x2,⋯,xn)=∏i=1n1θ2π−−√exp[−12θ2(xi−θ)2]=1(θ2π−−√)nexp[−12θ2∑i=1n(xi−θ)2]=1(θ2π−−√)nexp[1θ∑i=1nxi−12θ2∑i=1nx2i−n2]=g(θ,T(x))h(x)∀(x1,⋯,xn)∈Rn,∀θ∈Rfθ(x1,x2,⋯,xn)=∏i=1n1θ2πexp⁡[−12θ2(xi−θ)2]=1(θ2π)nexp⁡[−12θ2∑i=1n(xi−θ)2]=1(θ2π)nexp⁡[1θ∑i=1nxi−12θ2∑i=1nxi2−n2]=g(θ,T(x))h(x)∀(x1,⋯,xn)∈Rn,∀θ∈R\begin{align} f_{\theta}(x_1,x_2,\cdots,x_n)&=\prod_{i=1}^n\frac{1}{\theta\sqrt{2\pi}}\exp\left[-\frac{1}{2\theta^2}(x_i-\theta)^2\right] \\&=\frac{1}{(\theta\sqrt{2\pi})^n}\exp\left[-\frac{1}{2\theta^2}\sum_{i=1}^n(x_i-\theta)^2\right] \\&=\frac{1}{(\theta\sqrt{2\pi})^n}\exp\left[\frac{1}{\theta}\sum_{i=1}^n x_i-\frac{1}{2\theta^2}\sum_{i=1}^nx_i^2-\frac{n}{2}\right] \\&=g(\theta,T(\mathbf x))h(\mathbf x)\qquad\forall\,(x_1,\cdots,x_n)\in\mathbb R^n\,,\forall\,\theta\in\mathbb R \end{align} , де і .h(x)=1г( θ , Т( х ) ) = 1( θ 2 π√)ндосвід[ 1θ∑нi = 1хi- 12 …

2
Чому оцінювач вважається випадковою змінною?
Я розумію, що таке оцінювач і оцінка: Оцінювач: Правило для обчислення оцінки Оцінка: Значення, обчислене з набору даних на основі оцінки Між цими двома термінами, якщо мене попросять вказати на випадкову змінну, я б сказав, що оцінка є випадковою змінною, оскільки її значення буде змінюватися випадковим чином на основі вибірок …

1
Докази рівня бакалавра теореми Пітмана – Купмана – Дармуа
Теорема Пітмана – Коопмана – Дармуа говорить, що якщо ідентичний вибірки з параметризованого сімейства розподілів ймовірностей допускає достатню статистику, кількість скалярних компонентів не зростає з розміром вибірки, то це експоненціальна сім'я. Чи дають докази будь-які підручники чи елементарні збірники? Чому вона названа на честь цих трьох осіб?

2
Легкий доказ
Нехай - незалежні стандартні звичайні випадкові величини. Існує багато (тривалих) доказів, що показують цеZ1,⋯,ZnZ1,⋯,ZnZ_1,\cdots,Z_n ∑i=1n(Zi−1n∑j=1nZj)2∼χ2n−1∑i=1n(Zi−1n∑j=1nZj)2∼χn−12 \sum_{i=1}^n \left(Z_i - \frac{1}{n}\sum_{j=1}^n Z_j \right)^2 \sim \chi^2_{n-1} Багато доказів досить довгі, і деякі з них використовують індукцію (наприклад, статистичні умовиводи Casella). Мені цікаво, чи є легкий доказ цього результату.

2
Чи охоплює парадокс Сімпсона всі випадки повернення від прихованої змінної?
Далі йде питання про безліч візуалізацій, пропонованих як «доказ за картиною» існування парадоксу Сімпсона, і, можливо, питання про термінологію. Парадокс Сімпсона - досить просте явище для опису та надання чисельних прикладів (причина, чому це може статися, є глибокою та цікавою). Парадокс полягає в тому, що існують таблиці на випадок 2–2x2 …

2
Чи графічні моделі та машини Больцмана пов'язані математично?
Хоча я фактично займався програмуванням з машинами Больцмана на уроці фізики, я не знайомий з їх теоретичною характеристикою. Навпаки, я знаю скромну кількість про теорію графічних моделей (про перші кілька розділів книги « Графічні моделі» Лаурітцена ). Запитання: Чи є якісь змістовні зв’язки між графічними моделями та машиною Больцмана? Чи …

2
Чи зміщення є властивістю оцінювача чи конкретних оцінок?
Як приклад, я часто зустрічаю студентів, які знають, що спостережуване є упередженим оцінювачем населення . Потім, пишучи свої звіти, вони говорять про такі речі:R2R2R^2R2R2R^2 "Я обчислив спостережувані та скориговані , і вони були досить схожими, що передбачає лише невелику кількість зміщення в отриманому нами значення спостережуваного ".R2R2R^2R2R2R^2R2R2R^2 Я розумію, що, …

2
Що саме означає позначення?
Що означає позначення (крапка над тильдою) у такому контексті, як ?∼˙∼˙\dot\simx∼˙N(0,1)x∼˙N(0,1)x \mathrel{\dot\sim} \mathcal N(0,1) Виявляється, простіше знайти, як правильно його ввести : tex.SE пояснює, що слід вводити, \mathrel{\dot\sim}а не просто \dot\simвиправляти проблему з інтервалом - ніж шукати, що це насправді означає. Досі він використовувався лише 4 рази на CV; це …

1
При повторній параметризації функції ймовірності достатньо просто підключити перетворену змінну замість зміни формули змінних?
Припустимо, що я намагаюся повторно параметризувати функцію вірогідності, яка розподілена експоненціально. Якщо моя оригінальна функція вірогідності: р (у∣ θ ) = θ e- θ уp(y∣θ)=θe−θy p(y \mid \theta) = \theta e^{-\theta y} і я хотів би повторно параметризувати його за допомогою , оскільки не є випадковою змінною, а параметром, достатньо …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.