Запитання з тегом «least-squares»

Посилається на загальну техніку оцінки, яка вибирає значення параметра, щоб мінімізувати різницю в квадраті між двома величинами, такими як спостережуване значення змінної, і очікуваним значенням цього спостереження, обумовленим значенням параметра. Лінійні моделі Гаусса відповідають розмірам найменших квадратів, а найменших квадратів - ідея, що лежить в основі використання середньої квадратичної помилки (MSE) як способу оцінки оцінювача.

2
Припущення про найменші квадрати
Припустимо наступне лінійне співвідношення: , де - залежна змінна, - одна незалежна змінна та - термін помилки.Yi=β0+β1Xi+uiYi=β0+β1Xi+uiY_i = \beta_0 + \beta_1 X_i + u_iYiYiY_iXiXiX_iuiuiu_i Згідно зі словами Stock & Watson (Вступ до економетрії; Глава 4 ), припущення третього найменшого квадрата - це те, що четверті моменти та є ненульовими та …

1
Лінійна модель, де дані мають невизначеність, використовуючи R
Скажімо, у мене є дані, які мають певну невизначеність. Наприклад: X Y 1 10±4 2 50±3 3 80±7 4 105±1 5 120±9 Характер невизначеності може бути, наприклад, повторними вимірюваннями або експериментами, або невизначеністю вимірювального приладу, наприклад. Я хотів би прилаштувати криву до неї, використовуючи R, те, що зазвичай я б …

1
Визначення найменш зважених квадратних ваг: R lm функція проти
Чи може хто-небудь сказати мені, чому я отримую різні результати від Rзважених найменших квадратів та ручного рішення за допомогою матриці ? Зокрема, я намагаюся вручну вирішити , де - діагональна матриця на вагах, - матриця даних, - відповідь вектор. WAx=WbWAx=Wb\mathbf W \mathbf A\mathbf x=\mathbf W \mathbf bWW\mathbf WAA\mathbf Abb\mathbf b …

1
Що звичайного, у звичайних найменших квадратиках?
Нещодавно мій друг запитав, що таке звичайне, про звичайні найменші квадрати. Ми, здається, ніде не потрапляли в дискусію. Ми обоє погодилися, що OLS - це особливий випадок лінійної моделі, він має багато застосувань, добре відомий і є особливим випадком багатьох інших моделей. Але це насправді все? Тому я хотів би …

2
Є OLS асимптотично ефективним при гетеросцедастичності
Я знаю, що OLS є неупередженим, але неефективним при гетеросцедастичності в умовах лінійної регресії. У Вікіпедії http://en.wikipedia.org/wiki/Minimum_mean_square_error Оцінювач MMSE є асимптотично неупередженим і він переходить у розподіл до нормального розподілу: n−−√(x^−x)→dN(0,I−1(x))n(x^−x)→dN(0,I−1(x))\sqrt{n}(\hat{x} - x) \xrightarrow{d} \mathcal{N}\left(0 , I^{-1}(x)\right), де I (x) - інформація про Фішера з x. Таким чином, оцінювач MMSE …

2
Як залишки відносяться до основних порушень?
Методом найменших квадратів ми хочемо оцінити невідомі параметри в моделі: Yj= α + βхj+εj( j = 1 ... n )Yj=α+βxj+εj(j=1...n)Y_j = \alpha + \beta x_j + \varepsilon_j \enspace (j=1...n) Після того як ми зробили це (для деяких спостережуваних значень), ми отримаємо пристосовану регресійну лінію: Yj=α^+β^х +еj( J = 1 , …

1
Застосовуючи регресію хребта для недостатньо визначеної системи рівнянь?
Коли , проблема найменших квадратів, яка накладає сферичне обмеження на значення може бути записана як ім'я для завищеної системи. \ | \ cdot \ | _2 - евклідова норма вектора.y=Xβ+ey=Xβ+ey = X\beta + eδδ\deltaββ\betamin ∥y−Xβ∥22s.t. ∥β∥22≤δ2min⁡ ‖y−Xβ‖22s.t.⁡ ‖β‖22≤δ2\begin{equation} \begin{array} &\operatorname{min}\ \| y - X\beta \|^2_2 \\ \operatorname{s.t.}\ \ \|\beta\|^2_2 \le …

1
За якими припущеннями метод звичайних найменших квадратів дає ефективні та неупереджені оцінки?
Чи правда, що за припущеннями Гаусса Маркова звичайний метод найменших квадратів дає ефективні та неупереджені оцінки? Тому: Е(ут) = 0Е(ут)=0E(u_t)=0 для усіх ттt Е(утус) =σ2Е(утус)=σ2E(u_tu_s)=\sigma^2 для t = sт=сt=s Е(утус) = 0Е(утус)=0E(u_tu_s)=0 для t ≠ sт≠сt\neq s де ууu є залишками.

2
Теорема Гаусса-Маркова: СВІТИЙ та OLS
Я читаю теорему Гуаса-Маркова у Вікіпедії , і я сподівався, що хтось може допомогти мені з'ясувати головний пункт теореми. Припускаємо, що лінійна модель у матричній формі задається: у= Xβ+ ηy=Xβ+η y = X\beta +\eta і ми шукаємо СВІТУ, βˆβ^ \widehat\beta . Відповідно до цього я б мітлюη= у- Xβη=y−Xβ\eta = …

2
Параметричне, напівпараметричне та непараметричне завантаження для змішаних моделей
Наступні трансплантати взяті з цієї статті . Я новачок у завантажувальній програмі та намагаюся реалізувати параметричне, напівпараметричне та непараметричне завантажувальне завантаження для лінійної змішаної моделі з R bootпакетом. R код Ось мій Rкод: library(SASmixed) library(lme4) library(boot) fm1Cult <- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult), data=Cultivation) fixef(fm1Cult) boot.fn …
9 r  mixed-model  bootstrap  central-limit-theorem  stable-distribution  time-series  hypothesis-testing  markov-process  r  correlation  categorical-data  association-measure  meta-analysis  r  anova  confidence-interval  lm  r  bayesian  multilevel-analysis  logit  regression  logistic  least-squares  eda  regression  notation  distributions  random-variable  expected-value  distributions  markov-process  hidden-markov-model  r  variance  group-differences  microarray  r  descriptive-statistics  machine-learning  references  r  regression  r  categorical-data  random-forest  data-transformation  data-visualization  interactive-visualization  binomial  beta-distribution  time-series  forecasting  logistic  arima  beta-regression  r  time-series  seasonality  large-data  unevenly-spaced-time-series  correlation  statistical-significance  normalization  population  group-differences  demography 
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.