Запитання з тегом «prediction»

Прогнозування невідомих випадкових величин за допомогою статистичної моделі.

1
Яка різниця між функцією прийняття рішення, прогнозом_проблемою та функцією передбачення для проблеми логістичної регресії?
Я переглядав документацію sklearn, але не можу зрозуміти мету цих функцій в контексті логістичної регресії. Бо decision_functionвін говорить, що його відстань між гіперпланом і тестовим екземпляром. чим корисна ця конкретна інформація? і як це стосується predictта predict-probaметодів?

2
Оцініть задній прогнозний розподіл за лінійною регресією Байєса
Мене збентежує те, як оцінити задній прогнозний розподіл за лінійною регресією Байєса, минулий основний випадок, описаний тут на сторінці 3, і скопійований нижче. р (у~∣ у) = ∫р (у~∣ β,σ2) p ( β,σ2∣ у)p(y~∣y)=∫p(y~∣β,σ2)p(β,σ2∣y) p(\tilde y \mid y) = \int p(\tilde y \mid \beta, \sigma^2) p(\beta, \sigma^2 \mid y) Основний …

1
Розрахунок інтервалів прогнозування при використанні перехресної перевірки
Чи оцінюються стандартні відхилення за допомогою: sN=1N∑Ni=1(xi−x¯¯¯)2−−−−−−−−−−−−−√.sN=1N∑i=1N(xi−x¯)2. s_N = \sqrt{\frac{1}{N} \sum_{i=1}^N (x_i - \overline{x})^2}. ( http://en.wikipedia.org/wiki/Standard_deviation#Sample_standard_deviation ) для точності прогнозування, відібраної з 10-кратної перехресної перевірки? Мене турбує, що точність прогнозування, обчислена між кожною складовою, залежить від значного перекриття між тренувальними наборами (хоча набори прогнозування не залежать). Будь-які ресурси, які обговорюють …

1
Як отримати прогнозування конкретної змінної в WinBUGS?
Я новий користувач WinBUGS і маю одне питання до вашої допомоги. Після запуску наступного коду я отримав параметри beta0через beta4(статистика, щільність), але я не знаю, як отримати прогнозування останнього значення h, яке я встановив NAдля моделювання в коді. Хтось може дати мені підказку? Будь-яка порада буде дуже вдячна. model { …

1
R лінійна регресія, категоріальна змінна значення «приховане»
Це лише приклад, на який я зустрічався кілька разів, тому у мене немає даних про вибірку. Запуск лінійної регресійної моделі в R: a.lm = lm(Y ~ x1 + x2) x1є суцільною змінною. x2категоричний і має три значення, наприклад "Низький", "Середній" та "Високий". Однак вихід, отриманий R, був би на кшталт: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

2
Декомпозиція дисперсії зміщення: термін для очікуваної помилки прогнозу в квадраті за вирахуванням помилки
Хасті та ін. "Елементи статистичного навчання" (2009) розглядають процес формування даних Y= f( X) + εY=f(X)+ε Y = f(X) + \varepsilon з E (ε)=0E(ε)=0\mathbb{E}(\varepsilon)=0 і Var ( ε ) =σ2εVar(ε)=σε2\text{Var}(\varepsilon)=\sigma^2_{\varepsilon}. Вони представляють наступне розмежування дисперсійної дисперсії очікуваної помилки прогнозу в квадраті в точці х0x0x_0 (с. 223, формула 7.9): Помилка (х0)= …

2
Результати регресії мають несподівану верхню межу
Я намагаюсь передбачити балансову оцінку і спробував кілька різних методів регресії. Одне, що я помітив, - це те, що передбачувані значення, здається, мають якусь верхню межу. Тобто фактичний баланс знаходиться у , але мої прогнози становлять приблизно . Наступний графік показує фактичний та передбачуваний баланс (прогнозований з лінійною регресією):[0.0,1.0)[0.0,1.0)[0.0, 1.0)0.80.80.8 …

3
Перехресне підтвердження K-згину або витримки для регресії хребта з використанням R
Я працюю над перехресною валідацією прогнозування моїх даних з 200 предметами та 1000 змінними. Мене цікавить регресія хребта, оскільки кількість змінних (я хочу використовувати) більша, ніж кількість вибірки. Тому я хочу використовувати оцінювачі усадки. Наступні складені приклади даних: #random population of 200 subjects with 1000 variables M <- matrix(rep(0,200*100),200,1000) for …

3
Розуміння байесівських прогнозних розподілів
Я проходжу курс «Вступ до Байєса» і мені виникають труднощі в розумінні прогнозних розподілів. Я розумію, чому вони корисні, і я знайомий з визначенням, але є деякі речі, які я не зовсім розумію. 1) Як отримати правильний прогнозний розподіл для вектора нових спостережень Припустимо, що ми побудували модель вибірки для …

1
Оцінка ефективності прогнозування часових рядів
У мене є динамічна модель наївних баєсів, що навчається на кількох часових змінних. Результатом моделі є прогнозування P(Event) @ t+1, оцінене на кожній t. Діаграма P(Event)порівняння timeнаведена на малюнку нижче. На цій фігурі чорна лінія відображається так, P(Event)як передбачила моя модель; горизонтальна червона лінія представляє собою попереднє ймовірність того, що …

1
Прогнозування з randomForest (R), коли для деяких входів відсутні значення (NA)
У мене є точна randomForestмодель класифікації, яку я хотів би використовувати в додатку, який передбачає клас нового випадку. У новому випадку неминуче відсутні значення. Прогнозуйте, що НС не працюватиме як така. Як мені це робити тоді? data(iris) # create first the new case with missing values na.row<-45 na.col<-c(3,5) case.na<-iris[na.row,] case.na[,na.col]<-NA …

1
Як порівняти спостережувані та очікувані події?
Припустимо, у мене є один зразок частоти 4 можливих подій: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 і я маю очікувані ймовірності моїх подій: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 За допомогою суми спостережуваних частот моїх чотирьох подій (18) …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 

2
Використовуючи регресійну модель для прогнозування: Коли зупинитись?
Я розрахував просту модель лінійної регресії з моїх експериментальних заходів, щоб зробити прогнози. Я прочитав, що не слід обчислювати прогнози для балів, які занадто далеко відходять від доступних даних. Однак я не зміг знайти жодного керівництва, яке допоможе мені зрозуміти, наскільки я можу екстраполювати. Наприклад, якщо я обчислюю швидкість читання …

1
Прогнозуйте GLM poisson зі зміщенням
Я знаю, що це, мабуть, основне питання ... Але я, здається, не знаходжу відповіді. Я підходив до ГМ з родиною Пуассона, а потім намагався ознайомитись з прогнозами, однак зміщення, здається, враховується: model_glm=glm(cases~rhs(data$year,2003)+lhs(data$year,2003), offset=(log(population)), data=data, subset=28:36, family=poisson()) predict (model_glm, type="response") Я отримую випадки не ставки ... Я також спробував model_glm=glm(cases~rhs(data$year,2003)+lhs(data$year,2003)+ offset(log(population)), …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.