Запитання з тегом «aic»

AIC розшифровується як інформаційний критерій Akaike, який є однією методикою, що використовується для вибору найкращої моделі з класу моделей з використанням пеніалізованої ймовірності. Менший AIC передбачає кращу модель.

3
Узагальнені лінійні змішані моделі: вибір моделі
Це питання / тема з'явилася під час обговорення з колегою, і я шукав деякі думки з цього приводу: Я моделюю деякі дані за допомогою логістичної регресії випадкових ефектів, точніше випадкової логістичної регресії. Для фіксованих ефектів у мене є 9 змінних, які представляють інтерес і враховуються. Я хотів би зробити якийсь …

2
AIC, anova error: Моделі не всі підходили до однакової кількості спостережень, моделі не всі були встановлені на однаковий розмір набору даних
У мене є такі моделі: require(nlme) set.seed(123) n <- 100 k <- 5 cat <- as.factor(rep(1:k, n)) cat_i <- 1:k # intercept per kategorie x <- rep(1:n, each = k) sigma <- 0.2 alpha <- 0.001 y <- cat_i[cat] + alpha * x + rnorm(n*k, 0, sigma) plot(x, y) m1 …
10 r  mixed-model  aic 

2
REML проти ML stepAIC
Я відчуваю себе переповненим після спроби зануритися в літературу про те, як запустити мішаний аналіз моделі після його використання з використанням AIC для вибору найкращої моделі чи моделі. Я не думаю, що мої дані є настільки складними, але я шукаю підтвердження того, що те, що я зробив, є правильним, а …

1
Яка модель глибокого навчання може класифікувати категорії, які не є взаємовиключними
Приклади: у мене є речення в описі посади: "Старший інженер Java у Великобританії". Я хочу використовувати модель глибокого навчання, щоб передбачити її як 2 категорії: English і IT jobs. Якщо я використовую традиційну модель класифікації, вона може передбачити лише 1 мітку з softmaxфункцією на останньому шарі. Таким чином, я можу …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

2
Чому інформаційний критерій (не скоригований ) використовується для вибору відповідного порядку відставання у моделі часових рядів?
У моделях часових рядів, таких як ARMA-GARCH, для вибору відповідного відставання або порядку моделі використовуються різні інформаційні критерії, такі як AIC, BIC, SIC тощо. Моє запитання дуже просте, чому ми не використовуємо скоригований для вибору відповідної моделі? Ми можемо вибрати модель, яка призводить до більш високого значення скоригованого . Оскільки …

4
Інтерпретація значення AIC
Типові значення AIC, які я бачив для логістичних моделей, є тисячами, принаймні сотнями. наприклад, на http://www.r-bloggers.com/how-to-perform-a-logistic-regression-in-r/ AIC становить 727,39 Хоча завжди кажуть, що AIC слід використовувати лише для порівняння моделей, я хотів зрозуміти, що означає конкретне значення AIC. Відповідно до формули, AIC=−2log(L)+2KAIC=−2log⁡(L)+2KAIC= -2 \log(L)+ 2K Де L = максимальна ймовірність …

1
Еквівалентність значень AIC та p у виборі моделі
У коментарі до відповіді на це питання було зазначено, що використання AIC у виборі моделі еквівалентно використанню р-значення 0,154. Я спробував це в R, де я використав "зворотний" алгоритм вибору підмножини, щоб викинути змінні з повної специфікації. По-перше, послідовно викидаючи змінну з найвищим р-значенням і зупиняючи, коли всі p-значення нижче …

2
Обчисліть криву ROC для даних
Отже, у мене є 16 випробувань, в яких я намагаюся ідентифікувати людину з біометричної ознаки за допомогою дистанції Hamming. Мій поріг встановлено на 3,5. Мої дані нижче, і лише пробна версія 1 - справжнє Позитивне: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.