Запитання з тегом «regression»

Методи аналізу взаємозв'язку між однією (або більше) змінними "залежними" та "незалежними" змінними.

4
Що спричиняє нестабільність ласо для вибору функцій?
У стисненому зондуванні існує гарантія теореми про те, що має унікальне розріджене рішення c (докладнішу інформацію див. У додатку).cargmin∥c∥1subject to y=Xcargmin‖c‖1subject to y=Xc\text{argmin} \Vert c \Vert_1\\ \text{subject to } y = Xc ccc Чи існує аналогічна теорема для лассо? Якщо є така теорема, вона не тільки гарантує стабільність ласо, але …

1
Розуміння негативної регресії хребта
Я шукаю літературу про негативну регресію хребта . Коротше кажучи, це узагальнення лінійної регресії з використанням коника негативний λλ\lambda у формулі β^=(X⊤X+λI)−1X⊤y.β^=(X⊤X+λI)−1X⊤y.\hat\beta = ( X^\top X + \lambda I)^{-1} X^\top y.Позитивний випадок має хорошу теорію: як функція втрат, як обмеження, як Байєс до ... але я відчуваю втрату від негативної …

1
Чому lm і biglm в R дають різні значення p для одних і тих же даних?
Ось невеликий приклад: MyDf<-data.frame(x=c(1,2,3,4), y=c(1.2, .7, -.5, -3)) Тепер із base::lm: > lm(y~x, data=MyDf) %>% summary Call: lm(formula = y ~ x, data = MyDf) Residuals: 1 2 3 4 -0.47 0.41 0.59 -0.53 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 3.0500 0.8738 3.491 0.0732 . x -1.3800 0.3191 …

2
Яка різниця між «регулярною» лінійною регресією та лінійною регресією глибокого навчання?
Я хочу знати різницю між лінійною регресією у звичайному аналізі машинного навчання та лінійною регресією в умовах «глибокого навчання». Які алгоритми використовуються для лінійної регресії в умовах глибокого навчання.

2
Використовуйте коефіцієнт кореляції Пірсона як оптимізацію в машинному навчанні
У машинному навчанні (для проблем з регресією) я часто бачу середню квадратичну помилку (MSE) або середню абсолютну помилку (MAE), яка використовується як функція помилок для мінімізації (плюс термін регуляризації). Мені цікаво, чи є ситуації, коли використання коефіцієнта кореляції було б більш доцільним? якщо така ситуація існує, то: За яких ситуацій …

3
Регресія зі скасованими даними
Спроба підрахувати кількість відвідувань за демографічними показниками та послугами. Дані дуже перекошені. Гістограми: qq ділянки (зліва - журнал): m <- lm(d$Visits~d$Age+d$Gender+city+service) m <- lm(log(d$Visits)~d$Age+d$Gender+city+service) cityі serviceє факторними змінними. Я отримую низьке значення p для всіх змінних, але також отримую низький r-квадрат у розмірі .05. Що я повинен зробити? Чи працювала …

1
Чому аналіз часових рядів не вважається алгоритмом машинного навчання
Чому аналіз часових рядів не вважається алгоритмом машинного навчання (на відміну від лінійної регресії). І регресійний, і аналіз часових рядів є методами прогнозування. То чому один з них вважається алгоритмом навчання, а не другий?

1
Чи повинен частковий додати до загального при множинній регресії?
Далі представлена ​​модель, створена з mtcarsнабору даних: > ols(mpg~wt+am+qsec, mtcars) Linear Regression Model ols(formula = mpg ~ wt + am + qsec, data = mtcars) Model Likelihood Discrimination Ratio Test Indexes Obs 32 LR chi2 60.64 R2 0.850 sigma 2.4588 d.f. 3 R2 adj 0.834 d.f. 28 Pr(> chi2) 0.0000 …

1
Чому б не посилювати регресію кожного разу?
Приклади цієї сторінки показують, що на просту регресію помітно впливають люди, що переживають люди, і це можна подолати за допомогою методів стійкої регресії: http://www.alastairsanderson.com/R/tutorials/robust-regression-in-R/ . Я вважаю, що lmrob і ltsReg - це інші надійні методи регресії. Чому не слід робити щоденний регрес (наприклад, rlm або rq), а не виконувати …

2
VC розмірність регресійних моделей
У серії лекцій « Навчання з даних» професор зазначає, що розмір ВК вимірює складність моделі на те, скільки точок може зруйнувати дана модель. Тож це прекрасно спрацьовує для моделей класифікації, де ми могли б сказати, що немає N точок, якщо класифікатор здатний ефективно зруйнувати k точки, вимірювання розміру VC було …

1
Який зв’язок між регуляризацією та методом множників лагранжу?
Для запобігання перевитрати людей люди додають термін регуляризації (пропорційний площі суми параметрів моделі) з параметром регуляризації до функції витрат лінійної регресії. Чи цей параметр збігається з множником лагранжу? Тож чи регуляризація така ж, як метод множника лагранжу? Або як пов’язані ці методи? λλ\lambdaλλ\lambda


2
Чи «добре» побудувати лінію регресії для ранжированих даних (кореляція Спірмена)?
У мене є дані, за якими я розраховував співвідношення Спірмена і хочу їх візуалізувати для публікації. Залежна змінна класифікується, незалежна змінна - ні. Те, що я хочу візуалізувати, - це більше загальна тенденція, ніж власне схил, тому я класифікував незалежний та застосував кореляцію / регресію Спірмена. Але тільки коли я …

2
Чому R потрібно тривалий час, щоб підходити до моделі з багаторівневим коефіцієнтом?
Мені підходить модель з коефіцієнтом з багатьма рівнями, і для отримання R потрібне дуже довгий час. Чому це? Наприклад, якщо мені підходить регресія, щоб прогнозувати зарплату гравців, і включати фактор прогнозування для всіх національних гравців, це займе більше часу, ніж встановлення моделі зарплати гравців з безперервним прогнозувачем, як-от гравців висоти.

1
Порівняння коефіцієнтів регресії однієї моделі в різних наборах даних
Я оцінюю два (2) холодоагенти (гази), які використовувалися в одній і тій же системі охолодження. Я маю дані про насичену температуру всмоктування ( ), температуру конденсації ( ) та ампераж ( ) для оцінки. Є два (2) набори даних; 1-й холодоагент ( ) та 2-й холодоагент ( ). Я використовую …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.