Запитання з тегом «linear-model»

Посилається на будь-яку модель, де випадкова змінна пов'язана з однією або кількома випадковими змінними функцією, лінійною у кінцевій кількості параметрів.

3
Чи припущення про лінійність у лінійній регресії є лише визначенням ?
Я переглядаю лінійну регресію. У підручнику Гріна сказано: Тепер, звичайно, будуть існувати й інші припущення щодо лінійної регресійної моделі, такі як . Це припущення у поєднанні з припущенням про лінійність (яке фактично визначає ) ставить структуру на модель.ϵE(ϵ|X)=0E(ϵ|X)=0E(\epsilon|X)=0ϵϵ\epsilon Однак припущення про лінійність саме по собі не наводить жодної структури нашої …

1
Яке значення мають подвійні бруски та 2 внизу у звичайних найменших квадратах?
Я бачив це позначення для звичайних найменших квадратів тут . minw∥Xw−y∥22minw‖Xw−y‖22 \min_w \left\| Xw - y \right\|^2_2 Я ніколи не бачив подвійних брусків і 2 внизу. Що означають ці символи? Чи є для них конкретна термінологія?

2
Регресія з оберненою незалежною змінною
Припустимо, у мене є вектор залежних змінних і вектор незалежної змінної. Коли побудовано проти , я бачу, що між ними існує лінійна залежність (тенденція до зростання). Тепер це також означає, що між і існує лінійна тенденція до зниження .Y N X Y 1NNNYYYNNNХXXYYY YX1Х1X\frac{1}{X}YYYХXX Тепер, якщо я запускаю регресію: і …

1
Як витягнути / обчислити важелі та відстані Кука для лінійних моделей зі змішаними ефектами
Хтось знає, як обчислити (або витягнути) важелі та відстані Кука для merоб’єкта класу (отриманого через lme4пакет)? Я хотів би побудувати їх для аналізу залишків.

1
Чому Anova () та drop1 () надали різні відповіді для GLMM?
У мене є GLMM форми: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Під час використання drop1(model, test="Chi")я отримую інші результати, ніж якщо я використовую Anova(model, type="III")з автомобільного пакета або summary(model). Ці два останні дають однакові відповіді. Використовуючи купу сфабрикованих даних, я виявив, що …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

3
Лінійна модель Гетероседастичність
У мене є така лінійна модель: Щоб вирішити гетероседастичність залишків, я спробував застосувати перетворення журналу на залежну змінну як але я все ще бачу такий же ефект від вентилятора на залишки. Значення DV порівняно невеликі, тому постійне додавання +1 до взяття журналу, мабуть, не підходить у цьому випадку.log(Y+1)log⁡(Y+1)\log(Y + 1) …

2
Чому в лінійній регресії ми повинні включати квадратичні терміни, коли нас цікавлять лише терміни взаємодії?
Припустимо, мене цікавить модель лінійної регресії для , тому що я хотів би побачити, чи взаємодія між двома коваріатами впливає на Y.Yi=β0+β1х1+β2х2+β3х1х2Yi=β0+β1x1+β2x2+β3x1x2Y_i = \beta_0 + \beta_1x_1 + \beta_2x_2 + \beta_3x_1x_2 У курсових записках професорів (з якими я не маю контактів) вказується: Якщо включати умови взаємодії, ви повинні включити їх умови …

3
Використання регресії для проектування поза діапазоном даних нормально? ніколи добре? іноді гаразд?
Які ваші думки щодо використання регресії для проектування поза діапазоном даних? Якщо ми впевнені, що вона відповідає лінійній або силовій моделі моделі, чи не могла вона бути корисною поза діапазоном даних? Наприклад, у мене є обсяг, керований ціною. Ми повинні мати можливість проектувати ціни за межами діапазону даних, на який …

2
Чи існує елегантний / проникливий спосіб зрозуміти цю лінійну ідентичність регресії для декількох ?
У рамках лінійної регресії я натрапив на чудовий результат, який, якщо ми підходимо до моделі E[Y]=β1X1+β2X2+c,E[Y]=β1X1+β2X2+c,E[Y] = \beta_1 X_1 + \beta_2 X_2 + c, то, якщо ми стандартизуємо і відцентруємо дані , і ,YYYX1X1X_1X2X2X_2 R2=Cor(Y,X1)β1+Cor(Y,X2)β2.R2=Cor(Y,X1)β1+Cor(Y,X2)β2.R^2 = \mathrm{Cor}(Y,X_1) \beta_1 + \mathrm{Cor}(Y, X_2) \beta_2. Мені це здається двома змінною версією для регресії …

5
Чи використовує децили для пошуку кореляції статистично обгрунтований підхід?
У мене є вибірка з 1449 точок даних, які не співвідносяться (r-квадрат 0,006). Аналізуючи дані, я виявив, що розділяючи значення незалежної змінної на позитивні та негативні групи, здається, є значна різниця в середньому залежної змінної для кожної групи. Розділяючи точки на 10 бункерів (децилів) за допомогою незалежних змінних значень, схоже, …

1
R лінійна регресія, категоріальна змінна значення «приховане»
Це лише приклад, на який я зустрічався кілька разів, тому у мене немає даних про вибірку. Запуск лінійної регресійної моделі в R: a.lm = lm(Y ~ x1 + x2) x1є суцільною змінною. x2категоричний і має три значення, наприклад "Низький", "Середній" та "Високий". Однак вихід, отриманий R, був би на кшталт: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

2
Як я можу пояснити просторову коваріацію у лінійній моделі?
Фон У мене є дані польового дослідження, в якому є чотири рівні лікування та шість повторень у кожному з двох блоків. (4x6x2 = 48 спостережень) Блоки розташовані приблизно на відстані 1 милі, а всередині блоків - сітка з 42, 2 м х 4 м ділянок та шириною 1 м; моє …

1
Варіантний термін у зміщенно-дисперсійному розкладі лінійної регресії
У "Елементах статистичного навчання" вираз для розкладання дисперсійної дисперсії лінійної моделі дається як де - фактична цільова функція, - дисперсія випадкової помилки в моделі і - лінійний оцінювач .Err(x0)=σ2ϵ+E[f(x0)−Ef^(x0)]2+||h(x0)||2σ2ϵ,Err(x0)=σϵ2+E[f(x0)−Ef^(x0)]2+||h(x0)||2σϵ2,Err(x_0)=\sigma_\epsilon^2+E[f(x_0)-E\hat f(x_0)]^2+||h(x_0)||^2\sigma_\epsilon^2,f(x0)f(x0)f(x_0)σ2ϵσϵ2 \sigma_\epsilon^2y=f(x)+ϵy=f(x)+ϵy=f(x)+\epsilonf^(x)f^(x)\hat f(x)f(x)f(x)f(x) Термін дисперсії мене тут хвилює, оскільки з рівняння випливає, що дисперсія буде нульовою, якщо цілі безшумні, тобтоАле для …

1
Нормально розподілені помилки та центральна гранична теорема
У Вступній економетрії Вулдріджа є цитата: Аргумент, що виправдовує нормальний розподіл помилок, зазвичай працює приблизно так: тому що ууu - це сукупність безлічі різних спостережуваних факторів, що впливають ууy, можна зробити висновок про центральну граничну теорему, щоб зробити висновок про це ууu має приблизний нормальний розподіл. Ця цитата стосується одного …

1
Що звичайного, у звичайних найменших квадратиках?
Нещодавно мій друг запитав, що таке звичайне, про звичайні найменші квадрати. Ми, здається, ніде не потрапляли в дискусію. Ми обоє погодилися, що OLS - це особливий випадок лінійної моделі, він має багато застосувань, добре відомий і є особливим випадком багатьох інших моделей. Але це насправді все? Тому я хотів би …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.