Запитання з тегом «least-squares»

Посилається на загальну техніку оцінки, яка вибирає значення параметра, щоб мінімізувати різницю в квадраті між двома величинами, такими як спостережуване значення змінної, і очікуваним значенням цього спостереження, обумовленим значенням параметра. Лінійні моделі Гаусса відповідають розмірам найменших квадратів, а найменших квадратів - ідея, що лежить в основі використання середньої квадратичної помилки (MSE) як способу оцінки оцінювача.

3
Коли найменше квадратів буде поганою ідеєю?
Якщо у мене є модель регресії: Y= Xβ+ εY=Xβ+ε Y = X\beta + \varepsilon де V [ε]=Iг∈ Rn × nV[ε]=Id∈Rn×n\mathbb{V}[\varepsilon] = Id \in \mathcal{R} ^{n \times n} і E [ε]=(0,…,0)E[ε]=(0,…,0)\mathbb{E}[\varepsilon]=(0, \ldots , 0) , коли використання βOLSβOLS\beta_{\text{OLS}} , звичайного оцінювача найменших квадратів ββ\beta , буде поганим вибором для оцінки? Я …

3
Чому оцінювач OLS коефіцієнта AR (1) упереджений?
Я намагаюся зрозуміти, чому OLS дає необ’єктивну оцінку процесу AR (1). Розглянемо У цій моделі порушена сувора екзогенність, тобто та співвідносяться, але та є некорельованими. Але якщо це правда, то чому не виконується наступне просте виведення? утϵт= α + βуt - 1+ϵт,∼я i dN( 0 , 1 ) .yt=α+βyt−1+ϵt,ϵt∼iidN(0,1). \begin{aligned} …

4
Чому методи регресії з найменшими квадратами та максимальною ймовірністю не є еквівалентними, коли помилки зазвичай не поширюються?
Назва говорить все це. Я розумію, що найменші квадрати та максимальна ймовірність дадуть однаковий результат для коефіцієнтів регресії, якщо помилки моделі нормально розподіляються. Але що станеться, якщо помилки нормально не поширюються? Чому ці два методи вже не рівнозначні?

3
Обчислення p-значень у обмежених (негативних) найменших квадратах
Я використовував Matlab для виконання обмежених найменших квадратів (звичайних найменших квадратів), і він автоматично виводить коефіцієнти, статистику тесту та p-значення. Моє запитання полягає в тому, що, виконуючи обмежені найменші квадрати (суворо негативні коефіцієнти), він виводить лише коефіцієнти, БЕЗ статистики тесту, р-значень. Чи можна обчислити ці значення для забезпечення значущості? І …


2
Чому нахил завжди рівно 1 при регресуванні помилок на залишках за допомогою OLS?
Я експериментував із взаємозв'язком між помилками та залишками, використовуючи прості імітації в Р. Одне, що я знайшов, - це те, що незалежно від розміру вибірки чи відхилення помилки я завжди отримую рівно 111 для нахилу, коли підходить модель errors∼β0+β1×residualserrors∼β0+β1×residualс {\rm errors} \sim \beta_0 + \beta_1 \times {\rm residuals} Ось моделювання, …

1
Яке значення мають подвійні бруски та 2 внизу у звичайних найменших квадратах?
Я бачив це позначення для звичайних найменших квадратів тут . minw∥Xw−y∥22minw‖Xw−y‖22 \min_w \left\| Xw - y \right\|^2_2 Я ніколи не бачив подвійних брусків і 2 внизу. Що означають ці символи? Чи є для них конкретна термінологія?

2
Умовна середня незалежність передбачає неупередженість та послідовність оцінки ОЛС
Розглянемо таку модель множинної регресії:Y=Xβ+Zδ+U.(1)(1)Y=Xβ+Zδ+U.Y=X\beta+Z\delta+U.\tag{1} Тут - вектор стовпця ; a матриця; a вектор стовпця; a матриця; a вектор стовпця; і , термін помилки, вектор стовпців .YYYn×1n×1n\times 1XXXn×(k+1)n×(k+1)n\times (k+1)ββ\beta(k+1)×1(k+1)×1(k+1)\times 1ZZZn×ln×ln\times lδδ\deltal×1l×1l\times 1UUUn×1n×1n\times1 ПИТАННЯ Мій лектор, підручник « Вступ до економетрії», 3-е видання. Джеймс Х. Сток і Марк У. Уотсон, с. …

1
Узагальнені найменші квадрати: від коефіцієнтів регресії до коефіцієнтів кореляції?
Щонайменше квадрати з одним предиктором: y=βx+ϵy=βx+ϵy = \beta x + \epsilon Якщо і стандартизовані до встановлення (тобто ), то:xxxyyy∼N(0,1)∼N(0,1)\sim N(0,1) ββ\beta - такий самий, як коефіцієнт кореляції Пірсона, .rrr ββ\beta однакова у відображеній регресії:x=βy+ϵx=βy+ϵx = \beta y + \epsilon Для узагальнених найменших квадратів (GLS) застосовується те саме? Тобто, якщо я …

1
Як я можу включити інноваційний зовнішній вигляд під спостереження 48 у свою модель ARIMA?
Я працюю над набором даних. Після використання деяких методів ідентифікації моделі я вийшов із моделлю ARIMA (0,2,1). Я використав detectIOфункцію в пакеті TSAв R, щоб виявити інноваційний зовнішній вигляд (IO) під час 48-го спостереження за моїм оригінальним набором даних. Як я включу цей зовнішній вигляд у свою модель, щоб я …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

3
відношення між простої регресії та множинною регресією
Дуже основне питання, що стосується регресій OLSR2R2R^2 запустіть регресію OLS y ~ x1, маємо , скажімо, 0,3R2R2R^2 запустіть регресію OLS y ~ x2, у нас є інший , скажімо, 0,4R2R2R^2 тепер ми запускаємо регресію y ~ x1 + x2, яким значенням може бути R квадрату регресії? Я думаю, що зрозуміло, …


4
Модель історії дискретних подій дискретного часу (виживання) в R
Я намагаюся вписати в R дискретний час модель, але не знаю, як це зробити. Я читав, що ви можете організувати залежну змінну в різні рядки, по одній для кожного часу спостереження, і використовувати glmфункцію за допомогою посилання logit або cloglog. У цьому сенсі, у мене є три колонки: ID, Event(1 …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
R лінійна регресія, категоріальна змінна значення «приховане»
Це лише приклад, на який я зустрічався кілька разів, тому у мене немає даних про вибірку. Запуск лінійної регресійної моделі в R: a.lm = lm(Y ~ x1 + x2) x1є суцільною змінною. x2категоричний і має три значення, наприклад "Низький", "Середній" та "Високий". Однак вихід, отриманий R, був би на кшталт: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
Зв'язок між MLE та найменшими квадратами у випадку лінійної регресії
Хасті та Тібшірані згадують у розділі 4.3.2 своєї книги, що у лінійній регресії підхід найменших квадратів насправді є особливим випадком максимальної вірогідності. Як ми можемо довести цей результат? PS: Не шкодуйте математичних деталей.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.