Запитання з тегом «self-study»

Рутинна вправа з підручника, курсу або тесту, що використовується для класу або самостійного вивчення. Політика цієї громади полягає в тому, щоб "надати корисні підказки" на подібні питання, а не повних відповідей.

1
Об'єктивний оцінювач з мінімальною дисперсією для
Нехай є випадковою вибіркою, яка містить розподіл для . Тобто,X1,...,XnX1,...,Xn X_1, ...,X_nGeometric(θ)Geometric(θ)Geometric(\theta)0&lt;θ&lt;10&lt;θ&lt;10<\theta<1 pθ(x)=θ(1−θ)x−1I{1,2,...}(x)pθ(x)=θ(1−θ)x−1I{1,2,...}(x)p_{\theta}(x)=\theta(1-\theta)^{x-1} I_{\{1,2,...\}}(x) Знайдіть неупереджений оцінювач з мінімальною дисперсією дляg(θ)=1θg(θ)=1θg(\theta)=\frac{1}{\theta} Моя спроба: Оскільки геометричний розподіл походить від родини експонентів, статистика є повною і достатньою для . Крім того, якщо є оцінкою для , воно є неупередженим. Тому за теоремою …

1
Експоненціальна сім'я: спостережена порівняно з очікуваною достатньою статистикою
Моє запитання виникає при читанні читання "Мінки Діріхле" розподілу Мінки , в якому зазначено наступне без доказів у контексті отримання оцінки максимальної ймовірності розподілу Діріхле на основі спостережень за випадковими векторами: Як і завжди з експоненціальною сім'єю, коли градієнт дорівнює нулю, очікувана достатня статистика дорівнює достатній статистиці, що спостерігається. Я …

1
Вірогідність журналу для GLM
У наступному коді я здійснюю логістичну регресію на згрупованих даних за допомогою glm та "від руки" за допомогою mle2. Чому функція logLik в R дає мені ймовірність журналу logLik (fit.glm) = - 2.336, що відрізняється від одного logLik (fit.ml) = - 5.514, який я отримую вручну? library(bbmle) #successes in first …

3
Вправа 2.2 Елементи статистичного навчання
Підручник спочатку генерує деякі дані для двох класів за допомогою: що дає: а потім він запитує: Я намагаюся вирішити це, спершу моделюючи цю графічну модель: де ccc це ярлик, год( 1 ≤ h ≤ 10 )год(1≤год≤10)h\,(1\le h \le 10) - індекс вибраного середнього мcгодмгодcm_h^c, і ххx- точка даних. Це дасть …

4
Модель історії дискретних подій дискретного часу (виживання) в R
Я намагаюся вписати в R дискретний час модель, але не знаю, як це зробити. Я читав, що ви можете організувати залежну змінну в різні рядки, по одній для кожного часу спостереження, і використовувати glmфункцію за допомогою посилання logit або cloglog. У цьому сенсі, у мене є три колонки: ID, Event(1 …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
R лінійна регресія, категоріальна змінна значення «приховане»
Це лише приклад, на який я зустрічався кілька разів, тому у мене немає даних про вибірку. Запуск лінійної регресійної моделі в R: a.lm = lm(Y ~ x1 + x2) x1є суцільною змінною. x2категоричний і має три значення, наприклад "Низький", "Середній" та "Високий". Однак вихід, отриманий R, був би на кшталт: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
Якщо квадрат часового ряду є нерухомим, чи є оригінальним часовий ряд стаціонарним?
Я знайшов рішення, в якому сказано, що якщо квадрат часового ряду є нерухомим, то це і оригінальний часовий ряд, і навпаки. Однак я, здається, не в змозі довести це, у когось є ідея, чи це правда, і якщо це як отримати?

2
Ймовірність
Припустимо, і X_2 є незалежними геометричними випадковими змінними з параметром p . Яка ймовірність того, що X_1 \ geq X_2 ?X1X1X_1X2X2X_2pppX1≥X2X1≥X2X_1 \geq X_2 Я збентежений з цього питання, тому що нам нічого не кажуть про X1X1X_1 та X2X2X_2 окрім як вони геометричні. Хіба це не буде 50%50%50\% оскільки X1X1X_1 та …

3
Незалежність статистики від розподілу гамми
НехайX1,...,XnX1,...,XnX_1,...,X_nбути випадковою вибіркою з розподілу гами .Gamma(α,β)Gamma(α,β)\mathrm{Gamma}\left(\alpha,\beta\right) Нехай і - середня вибірка та дисперсія вибірки відповідно.X¯X¯\bar{X}S2S2S^2 Потім доведіть або спростуйте, що і є незалежними.X¯X¯\bar{X}S2/X¯2S2/X¯2S^2/\bar{X}^2 Моя спроба: оскільки , нам потрібно перевірити незалежність і , але як я повинен встановити незалежність між ними?S2/X¯2=1n−1∑ni=1(XiX¯−1)2S2/X¯2=1n−1∑i=1n(XiX¯−1)2S^2/\bar{X}^2 = \frac{1}{n-1} \sum_{i=1}^n \left(\frac{X_i}{\bar{X}}-1\right)^2 X¯X¯\bar{X}(XiX¯)ni=1(XiX¯)i=1n\left(\frac{X_i}{\bar{X}} \right)_{i=1}^{n}

2
Показ
Якщо , знайдіть розподіл .X∼C(0,1)X∼C(0,1)X\sim\mathcal C(0,1)Y=2X1−X2Y=2X1−X2Y=\frac{2X}{1-X^2} У нас єFY(y)=Pr(Y≤y)FY(y)=Pr(Y≤y)F_Y(y)=\mathrm{Pr}(Y\le y) =Pr(2X1−X2≤y)=Pr(2X1−X2≤y)\qquad\qquad\qquad=\mathrm{Pr}\left(\frac{2X}{1-X^2}\le y\right) =⎧⎩⎨⎪⎪⎪⎪⎪⎪Pr(X∈(−∞,−1−1+y2√y])+Pr(X∈(−1,−1+1+y2√y]),ify&gt;0Pr(X∈(−1,−1+1+y2√y])+Pr(X∈(1,−1−1+y2√y]),ify&lt;0={Pr(X∈(−∞,−1−1+y2y])+Pr(X∈(−1,−1+1+y2y]),ify&gt;0Pr(X∈(−1,−1+1+y2y])+Pr(X∈(1,−1−1+y2y]),ify&lt;0\qquad\qquad=\begin{cases} \mathrm{Pr}\left(X\in\left(-\infty,\frac{-1-\sqrt{1+y^2}}{y}\right]\right)+\mathrm{Pr}\left(X\in\left(-1,\frac{-1+\sqrt{1+y^2}}{y}\right]\right),\text{if}\quad y>0\\ \mathrm{Pr}\left(X\in\left(-1,\frac{-1+\sqrt{1+y^2}}{y}\right]\right)+\mathrm{Pr}\left(X\in\left(1,\frac{-1-\sqrt{1+y^2}}{y}\right]\right),\text{if}\quad y<0 \end{cases} Цікаво, чи вказане вище розрізнення випадків правильне чи ні. З іншого боку, наступний видається більш простим методом: Ми можемо записати використовуючи тотожністьY=tan(2tan−1X)Y=tan⁡(2tan−1⁡X)Y=\tan(2\tan^{-1}X)2tanz1−tan2z=tan2z2tan⁡z1−tan2⁡z=tan⁡2z\frac{2\tan z}{1-\tan^2z}=\tan 2z ТеперХ∼ С( 0 , 1 )⟹засмага- 1Х∼ R …

3
Що вище, або
Тож у мене був імовірний тест, і я не міг реально відповісти на це питання. Він просто запитав щось подібне: "Враховуючи, що - випадкова величина, 0 , використовуйте правильну нерівність, щоб довести те, що вище або рівне, E (X ^ 2) ^ 3 або E (X ^ 3) ^ 2 …

2
Чи є властивість інваріантності оцінювача ML безглуздою з байєсівської точки зору?
Казелла та Бергер констатують властивість інваріантності оцінювача ML таким чином: Однак мені здається, що вони визначають "ймовірність" ηη\eta повністю ad ​​hoc та безглуздо: Якщо я застосую основні правила теорії ймовірностей до простого випадку η=τ(θ)=θ2η=τ(θ)=θ2\eta=\tau(\theta)=\theta^2, Я натомість отримую наступне: L ( η| x)=p(x |θ2= η) = p ( x | θ …

1
Яка модель глибокого навчання може класифікувати категорії, які не є взаємовиключними
Приклади: у мене є речення в описі посади: "Старший інженер Java у Великобританії". Я хочу використовувати модель глибокого навчання, щоб передбачити її як 2 категорії: English і IT jobs. Якщо я використовую традиційну модель класифікації, вона може передбачити лише 1 мітку з softmaxфункцією на останньому шарі. Таким чином, я можу …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

4
Як інтерпретувати криву виживання моделі Кокса?
Як ви інтерпретуєте криву виживання з пропорційною моделлю небезпеки Кокса? У цьому прикладі іграшки, припустимо, ми маємо коксову пропорційну модель небезпеки для ageзмінної kidneyданих та генеруємо криву виживання. library(survival) fit &lt;- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Наприклад, на час 200200200, яке твердження вірно? або обидва помиляються? Заява 1: у …

1
Нормально розподілені помилки та центральна гранична теорема
У Вступній економетрії Вулдріджа є цитата: Аргумент, що виправдовує нормальний розподіл помилок, зазвичай працює приблизно так: тому що ууu - це сукупність безлічі різних спостережуваних факторів, що впливають ууy, можна зробити висновок про центральну граничну теорему, щоб зробити висновок про це ууu має приблизний нормальний розподіл. Ця цитата стосується одного …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.