Запитання з тегом «multiple-regression»

Регресія, яка включає дві або більше нестабільних незалежних змінних.

4
ANOVA проти множинної лінійної регресії? Чому ANOVA так часто використовується в експериментальних дослідженнях?
ANOVA проти множинної лінійної регресії? Я розумію, що обидва ці методи, здається, використовують однакову статистичну модель. Однак за яких обставин слід використовувати який метод? Які переваги та недоліки цих методів у порівнянні? Чому ANOVA так часто використовується в експериментальних дослідженнях, і я навряд чи знайду регресійне дослідження?

1
Геометрична інтерпретація коефіцієнта множинної кореляції
Мене цікавить геометричне значення множинної кореляції RRR та коефіцієнт визначення R2R2R^2 в регресії yi=β1+β2x2,i+⋯+βkxk,i+ϵiyi=β1+β2x2,i+⋯+βkxk,i+ϵiy_i = \beta_1 + \beta_2 x_{2,i} + \dots + \beta_k x_{k,i} + \epsilon_i , або у векторних позначеннях , y=Xβ+ϵy=Xβ+ϵ\mathbf{y} = \mathbf{X \beta} + \mathbf{\epsilon} Тут проектна матриця XX\mathbf{X} має nnn рядків і kkk стовпців, з яких …

2
У якому порядку слід робити лінійну регресійну діагностику?
При лінійному регресійному аналізі ми аналізуємо чужих людей, досліджуємо мультиколінеарність, тестуємо гетеросцедастику. Питання: Чи є наказ застосувати їх? Я маю на увазі, чи треба нам спочатку проаналізувати людей, а потім вивчити мультиколінеарність? Або назад? Чи є щодо цього правило?

3
Чи має значення порядок пояснювальних змінних при обчисленні їх коефіцієнтів регресії?
Спочатку я думав, що порядок не має значення, але потім я прочитав про процес ортогоналізації грам-шмідта для обчислення кількох коефіцієнтів регресії, а тепер у мене є другі думки. Відповідно до процесу грам-шмідта, чим пізніше пояснювальна змінна індексується серед інших змінних, тим менший її залишковий вектор, оскільки від неї віднімаються залишкові …

1
Як обчислити інтервал прогнозування для множинної регресії OLS?
Яке алгебраїчне позначення для обчислення інтервалу передбачення для множинної регресії? Це звучить нерозумно, але у мене виникають проблеми з пошуку чіткого алгебраїчного позначення цього.

6
Розширені приклади регресійного моделювання
Я шукаю розширений випадок лінійної регресії, що ілюструє кроки, необхідні для моделювання складних, декількох нелінійних зв’язків за допомогою GLM або OLS. Напрочуд складно знайти ресурси, що виходять за рамки базових шкільних прикладів: більшість прочитаних книг не піде далі, ніж перетворення журналу відповіді, поєднане з BoxCox одного прогноктора, або природний сплайн …

3
Що означає "всі інші рівні" при множинній регресії?
Коли ми робимо кілька регресій і кажемо, що ми дивимось на середню зміну змінної yyy для зміни змінної xxx , тримаючи всі інші змінні постійними, за яких значень ми тримаємо інші змінні постійними? Їхнє значення? Нуль? Будь-яке значення? Я схильний думати, що це має будь-яку цінність; просто шукаю роз'яснення. Якби …

4
Багаторазова імпутація та вибір моделі
Множинна імпутація є досить простою, коли у вас є апріорна лінійна модель, яку ви хочете оцінити. Однак справи здаються дещо складнішими, коли ви насправді хочете зробити якийсь вибір моделі (наприклад, знайти "найкращий" набір змінних прогнозів з більшого набору змінних кандидатів - я маю на увазі конкретно LASSO та дробові поліноми, …

4
Важливість предикторів у множинній регресії: Часткова проти стандартизованих коефіцієнтів
Мені цікаво, яка точна залежність між частковим та коефіцієнтами у лінійній моделі та чи слід використовувати лише один чи обидва для ілюстрації важливості та впливу факторів.R2R2R^2 Наскільки я знаю, summaryя отримую оцінки коефіцієнтів, а із anovaсумою квадратів для кожного фактора - частка суми квадратів одного множника, поділена на суму суми …

2
Як описати чи візуалізувати множинну лінійну регресійну модель
Я намагаюся підходити до моїх даних декілька лінійних регресійних моделей з парою вхідних параметрів, скажімо 3. Ж( х )Ж( х)= А х1+ B x2+ Сх3+ дабо= ( А Б C)Т(х1 х2 х3) + д(i)(ii)(i)Ж(х)=Ах1+Бх2+Сх3+габо(ii)Ж(х)=(А Б С)Т(х1 х2 х3)+г\begin{align} F(x) &= Ax_1 + Bx_2 + Cx_3 + d \tag{i} \\ &\text{or} …

5
Припущення множинної регресії: чим припущення про нормальність відрізняється від припущення про постійну дисперсію?
Я читав, що це умови використання моделі множинної регресії: залишки моделі майже нормальні, мінливість залишків майже постійна залишки незалежні, і кожна змінна лінійно пов'язана з результатом. Чим 1 і 2 відрізняються? Ви можете побачити його прямо тут: Отже, наведений вище графік говорить про те, що залишкове значення, яке знаходиться на …

1
Доведення коефіцієнтів усадки за допомогою регресії хребта за допомогою "спектрального розкладання"
Я зрозумів, як регресія хребта зменшує коефіцієнти до нуля геометрично. Більше того, я знаю, як довести це в спеціальній "Ортонормічній справі", але мене бентежить, як це працює в загальному випадку за допомогою "Спектральної декомпозиції".

2
Кастинг багатоваріантної лінійної моделі у вигляді множинної регресії
Чи переробка багатовимірної лінійної регресійної моделі як множинної лінійної регресії цілком еквівалентна? Я не маю на увазі просто запуск ttt окремих регресій. Я читав це в декількох місцях (Байєсівський аналіз даних - Гельман та ін., І багатоваріантна стара школа - Марден), що багатоваріантну лінійну модель можна легко перемацати як багаторазову …

1
Інтуїція індексу оцінювача сендвіч
Вікіпедія та віньєтка із сендвіч-пакету R надають хорошу інформацію про припущення, що підтримують стандартні помилки коефіцієнта OLS та математичну основу сендвіч-оцінювачів. Мені все ще не зрозуміло, як вирішується проблема гетероседастичності залишків, мабуть, тому, що я не розумію в першу чергу стандартну оцінку дисперсії коефіцієнтів OLS. Яка інтуїція стоїть за сендвіч-оцінкою?

2
Що відбувається, коли я включаю змінну у квадрат у свою регресію?
Я починаю з моєї регресії OLS: де D - фіктивна змінна, оцінки стають різними від нуля з низьким р-значенням. Потім я заздалегідь підготую тест Рамзі RESET і виявляю, що у мене є деяка помилка рівняння, я таким чином включаю квадрат x: y = β 0 + β 1 x 1 …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.