Запитання з тегом «multiple-regression»

Регресія, яка включає дві або більше нестабільних незалежних змінних.

3
Чому поліноміальна регресія вважається особливим випадком множинної лінійної регресії?
Якщо поліноміальна регресія моделює нелінійні зв’язки, як це можна вважати особливим випадком множинної лінійної регресії? У Вікіпедії зазначається, що «Хоча поліноміальна регресія відповідає нелінійній моделі даним, однак проблема статистичного оцінювання є лінійною, в тому сенсі, що функція регресії лінійна в невідомих параметрах, що оцінюються з даних ".Е (у| х)E(y|x)\mathbb{E}(y | …

2
Множинна регресія або частковий коефіцієнт кореляції? І відносини між ними
Я навіть не знаю, чи має це питання сенс, але в чому різниця між множинною регресією та частковою кореляцією (крім очевидних відмінностей між кореляцією та регресією, на що я не прагну)? Я хочу з’ясувати наступне: у мене є дві незалежні змінні ( , ) та одна залежна змінна ( ). …

7
Вибір змінних для включення в модель множинної лінійної регресії
В даний час я працюю над створенням моделі з використанням множинної лінійної регресії. Після познайомлення зі своєю моделлю я не знаю, як найкраще визначити, які змінні зберігати, а які видалити. Моя модель розпочалася з 10 прогнозів для DV. При використанні всіх 10 предикторів чотири вважалися значущими. Якщо я видалю лише …

3
Суперечність суттєвості в лінійній регресії: суттєвий t-тест на коефіцієнт проти несуттєвої загальної F-статистики
Мені підходить декілька лінійних регресійних моделей між 4 категоричними змінними (з 4 рівнями кожна) та числовим результатом. У моєму наборі даних є 43 спостереження. Регресія дає мені такі ppp -значення від -тесту для кожного коефіцієнта нахилу: . Таким чином, коефіцієнт для 4-го предиктора є значущим на рівні довіри .ттt.15 , …

5
Як отримати оцінку найменшого квадрата для множинної лінійної регресії?
У простому випадку лінійної регресії можна отримати оцінку найменшого квадрата таким чином, що вам не потрібно знати щоб оцінюватиy=β0+β1xy=β0+β1xy=\beta_0+\beta_1xβ^1=∑(xi−x¯)(yi−y¯)∑(xi−x¯)2β^1=∑(xi−x¯)(yi−y¯)∑(xi−x¯)2\hat\beta_1=\frac{\sum(x_i-\bar x)(y_i-\bar y)}{\sum(x_i-\bar x)^2}β^0β^0\hat\beta_0β^1β^1\hat\beta_1 Припустимо , що у мене y=β1x1+β2x2y=β1x1+β2x2y=\beta_1x_1+\beta_2x_2 , як я вивести β 1 без оцінки β 2 ? чи це неможливо?β^1β^1\hat\beta_1β^2β^2\hat\beta_2

5
Як боротися з ієрархічними / вкладеними даними в машинному навчанні
Я поясню свою проблему на прикладі. Припустимо, ви хочете передбачити дохід фізичної особи за деякими ознаками: {Вік, стать, країна, регіон, місто}. У вас такий навчальний набір даних train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

1
Наскільки неправильною є модель регресії, коли припущення не виконуються?
Під час встановлення регресійної моделі, що відбувається, якщо припущення виходів не виконані, зокрема: Що станеться, якщо залишки не є гомосептичними? Якщо залишки показують зростаючу чи зменшувальну картину в графіку Залишкові та Пристосовані. Що станеться, якщо залишки нормально не поширюються і не виконають тест Шапіро-Вілка? Тест на нормальність Шапіро-Вілка є дуже …

2
Чому p-значення вводять в оману після поетапного вибору?
Розглянемо, наприклад, модель лінійної регресії. Я чув, що при обробці даних після поетапного відбору, заснованого на критерії AIC, оманливим є перегляд p-значень для перевірки нульової гіпотези про те, що кожен справжній коефіцієнт регресії дорівнює нулю. Я чув, що слід вважати, що всі змінні, залишені в моделі, мають справжній коефіцієнт регресії, …

6
Навіщо нам потрібна багатоваріантна регресія (на відміну від ряду одноманітних регресій)?
Я щойно переглянув цю чудову книгу: Прикладний багатоваріантний статистичний аналіз Джонсона та Вічерн . Іронія полягає в тому, що я досі не в змозі зрозуміти мотивацію використання багатоваріантних (регресійних) моделей замість окремих одновимірних (регресійних) моделей. Я переглянув stats.statexchange пости 1 та 2, які пояснюють (a) різницю між багаторазовою та багатоваріантною …

3
Як боротися з мультиколінеарністю при виконанні варіативного вибору?
У мене є набір даних з 9 безперервними незалежними змінними. Я намагаюся вибрати серед цих змінних , щоб відповідати моделі до одного відсотка ( в залежності) змінної Score. На жаль, я знаю, що між декількома змінними буде серйозна колінеарність. Я намагався використовувати stepAIC()функцію в R для вибору змінної, але цей …

1
Чи може ступінь свободи бути цілим числом?
Коли я використовую GAM, це дає мені залишковий коефіцієнт DF (останній рядок у коді). Що це означає? Виходячи за приклад GAM, загалом, чи може число ступенів свободи бути нецілим числом?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

3
Як визначити різницю між лінійними та нелінійними моделями регресії?
Я читав наступне посилання на нелінійну регресію SAS нелінійної . Моє розуміння з прочитання першого розділу "Нелінійна регресія проти лінійної регресії" полягала в тому, що рівняння нижче є фактично лінійною регресією, чи правильно це? Якщо так, чому? y=b1x3+b2x2+b3x+cy=b1x3+b2x2+b3x+cy = b_1x^3 + b_2x^2 + b_3x + c Чи я також повинен …

2
Перетворення змінних для множинної регресії в R
Я намагаюся виконати кратну регресію в R. Однак моя залежна змінна має такий сюжет: Ось матриця розсіювання з усіма моїми змінними ( WARє залежною змінною): Я знаю, що мені потрібно виконати перетворення на цій змінній (а можливо, і незалежних змінних?), Але я не впевнений у необхідній точній трансформації. Чи може …

4
Для чого корисні рейтинги змінної важливості?
Я став чимось нігілістом, коли справа стосується рейтингів різної важливості (в контексті багатоваріантних моделей усіх видів). Часто в процесі роботи мене просять або допомогти іншій команді створити рейтинг змінної важливості, або створити змінний рейтинг важливості з моєї власної роботи. У відповідь на ці запити я задаю наступні запитання Для чого …

3
Як моделювати цей непарний розподіл (майже зворотний J)
Моя залежна змінна, показана нижче, не відповідає жодному мені відомості про розподіл запасів. Лінійна регресія створює дещо ненормальні залишки з правою косою, які відносяться до передбачуваного Y незвичайним чином (2-й графік). Будь-які пропозиції щодо перетворень чи інші способи отримання найбільш вагомих результатів та найкращої точності прогнозування? Якщо можливо, я хотів …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.