Запитання з тегом «multiple-regression»

Регресія, яка включає дві або більше нестабільних незалежних змінних.

1
R / mgcv: Чому тензорні вироби te () і ti () створюють різні поверхні?
У mgcvпакеті Rє дві функції для встановлення тензорних взаємодій між продуктами: te()і ti(). Я розумію основний розподіл праці між двома (встановлення нелінійної взаємодії проти декомпозиції цієї взаємодії на основні ефекти та взаємодію). Чого я не розумію, це чому te(x1, x2)і ti(x1) + ti(x2) + ti(x1, x2)може давати (трохи) різні результати. …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 


2
Як виконати залишковий аналіз для бінарних / дихотомічних незалежних предикторів при лінійній регресії?
Я виконую декілька лінійних регресій нижче в R, щоб передбачити прибуток на керований фонд. reg <- lm(formula=RET~GRI+SAT+MBA+AGE+TEN, data=rawdata) Тут лише GRI та MBA є двійковими / дихотомічними предикторами; решта предикторів безперервні. Я використовую цей код для створення залишкових графіків для бінарних змінних. plot(rawdata$GRI, reg$residuals) abline(lm(reg$residuals~rawdata$GRI, data=rawdata), col="red") # regression line …

4
Діагональні прямі лінії в залишках проти встановлених значень ділянки для множинної регресії
За моїми даними я спостерігаю дивні закономірності в залишках: [EDIT] Ось графіки часткової регресії для двох змінних: [EDIT2] Додано графік PP Здається, розподіл іде добре (див. Нижче), але я не маю жодного уявлення, звідки може бути ця пряма лінія. Будь-які ідеї? [ОНОВЛЕННЯ 31.07] Виявляється, ви були абсолютно праві, у мене …

3
Чому в дослідженні генетичної асоціації можна було б використовувати віковий квадрат як коваріат?
Чому в дослідженні генетичної асоціації можна використовувати вік і квадратик як коваріати? Я можу зрозуміти використання віку, якщо він був визначений як значний коваріат, але я втрачаю з точки зору використання вікового квадрата.

3
Проблеми з кодуванням із гарячим кодом та фіктивним кодуванням
Мені відомо про той факт, що категоричні змінні з k рівнями повинні бути кодовані змінними k-1 у фіктивній кодування (аналогічно для багатозначних категоріальних змінних). Мені було цікаво, якою проблемою є однокольорове кодування (тобто замість цього k змінних) через кодове кодування для різних методів регресії, в основному лінійної регресії, пеналізованої лінійної …

2
Поліноми високого порядку B-Splines VS в регресії
Я не маю на увазі конкретного прикладу чи завдання. Я просто новачок у використанні b-сплайнів і хотів краще зрозуміти цю функцію в контексті регресії. Давайте припустимо , що ми хочемо , щоб оцінити залежність між змінним відгуком і деякі провісники х 1 , х 2 , . . . , …

2
Умовна середня незалежність передбачає неупередженість та послідовність оцінки ОЛС
Розглянемо таку модель множинної регресії:Y=Xβ+Zδ+U.(1)(1)Y=Xβ+Zδ+U.Y=X\beta+Z\delta+U.\tag{1} Тут - вектор стовпця ; a матриця; a вектор стовпця; a матриця; a вектор стовпця; і , термін помилки, вектор стовпців .YYYn×1n×1n\times 1XXXn×(k+1)n×(k+1)n\times (k+1)ββ\beta(k+1)×1(k+1)×1(k+1)\times 1ZZZn×ln×ln\times lδδ\deltal×1l×1l\times 1UUUn×1n×1n\times1 ПИТАННЯ Мій лектор, підручник « Вступ до економетрії», 3-е видання. Джеймс Х. Сток і Марк У. Уотсон, с. …

1
Уточнення щодо читання номограми
Далі йде номограма, створена з набору даних mtcars з пакетом rms для формули: mpg ~ wt + am + qsec Сама модель здається гарною з R2 0,85 і P <0,00001 > mod Linear Regression Model ols(formula = mpg ~ wt + am + qsec, data = mtcars) Model Likelihood Discrimination …

2
Як отримати таблицю ANOVA з надійними стандартними помилками?
Я запускаю об'єднану регресію OLS, використовуючи пакет PLM в Р. Хоча, моє запитання стосується основної статистики, тому спершу я спробую опублікувати її;) Оскільки мої результати регресії дають гетероскедастичні залишки, я б спробував використати стійкі стандартні помилки гетерокедастичності. В результаті coeftest(mod, vcov.=vcovHC(mod, type="HC0"))я отримую таблицю, що містить оцінки, стандартні помилки, t-значення …

2
багаторазова регресія та множинні порівняння
Скажіть, я підходить до кратної регресії p пояснювальних змінних. T-тест дозволить мені перевірити, чи є якийсь один із них значущим ( ). Я можу зробити частковий F-тест , щоб перевірити , якщо деяка підмножина з них є значущим ( H 0 : β я = β J = . . …

3
Лінійна залежність між пояснювальними змінними при множинній регресії
Я читав розділ " Аналіз даних та графіки" з кількома регресіями, використовуючи R: Приклад, заснований на прикладі, і трохи розгубився, дізнавшись, що він рекомендує перевірити наявність лінійних взаємозв'язків між пояснювальними змінними (використовуючи розсіювач) і, якщо таких немає " т будь-, перетворюючи їх таким чином , вони дійсно стають більш лінійно …

1
Чому Anova () та drop1 () надали різні відповіді для GLMM?
У мене є GLMM форми: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Під час використання drop1(model, test="Chi")я отримую інші результати, ніж якщо я використовую Anova(model, type="III")з автомобільного пакета або summary(model). Ці два останні дають однакові відповіді. Використовуючи купу сфабрикованих даних, я виявив, що …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

4
Навіщо використовувати контрольні змінні в відмінностях у відмінностях?
У мене виникає запитання щодо підходу відмінностей у відмінностях із наступним стандартним рівнянням: де treatment - фіктивна змінна для обробленої групи та посади. y=a+b1treat+b2post+b3treat⋅post+uy=a+b1treat+b2post+b3treat⋅post+u y= a + b_1\text{treat}+ b_2\text{post} + b_3\text{treat}\cdot\text{post} + u Тепер моє запитання просте: Чому більшість робіт все ще використовують додаткові контрольні змінні? Я вважав, що якщо …

1
Чи є узагальнення сліду Піллая та сліду Готелінга-Лоулі?
У встановленні багатоваріантної множинної регресії (векторний регресор і регресіяі) чотири основні тести загальної гіпотези (Ламбда Вілка, Пілла-Бартлетта, Готелінга-Лоулі та Найбільший корінь Роя) залежать від власних значень матриці , де і - матриці варіації "поясненої" та "загальної". H EНЕ- 1HE−1H E^{-1}НHHЕEE Я помітив, що статистику Піллая та Хотелінга-Лоулі можна виразити як …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.