Запитання з тегом «regression»

Методи аналізу взаємозв'язку між однією (або більше) змінними "залежними" та "незалежними" змінними.

1
У чому проблема використання R-квадрата в моделях часових рядів?
Я читав, що використання R-квадрата для часових рядів не є доцільним, оскільки в контексті часових рядів (я знаю, що є інші контексти) R-квадрат більше не є унікальним. Чому це? Я намагався роздивитись це, але нічого не знайшов. Зазвичай я не приділяю великої вартості R-квадратам (або Регульованому R-Squared), коли я оцінюю …

2
Мінімальна кількість спостережень для множинної лінійної регресії
Я роблю множинні лінійні регресії. У мене 21 спостереження та 5 змінних. Моя мета - просто знайти співвідношення між змінними Чи виставлено моїх даних для багаторазової регресії? Результат t-тесту показав, що 3 моїх змінних не є істотними. Чи потрібно мені знову робити регресію зі значущими змінними (або моєї першої регресії …

3
Як обчислити різницю двох схилів?
Чи існує метод зрозуміти, чи дві лінії (більш-менш) паралельні? У мене є два рядки, породжені лінійними регресіями, і я хотів би зрозуміти, чи вони паралельні. Іншими словами, я хотів би отримати різні схили цих двох ліній. Чи існує функція R для її обчислення? EDIT: ... і як я можу отримати …

1
Яка різниця між AIC () та extraAIC () в R?
Документація на R не проливає багато світла. Все, що я можу отримати за цим посиланням, - це те, що використання будь-якого з них повинно бути добре. Чого я не отримую, це те, чому вони не рівні. Факт: функція покрокової регресії в R, step()використовує extractAIC(). Цікаво, що запуск lm()моделі та glm()'null' …

2
Чому моделі «помилка в X» не використовуються більш широко?
При розрахунку стандартної помилки коефіцієнта регресії, ми не враховуємо хаотичності в конструкції матриці . Наприклад, в OLS, ми обчислюємо якXXXvar(β^)var(β^)\text{var}(\hat{\beta})var((XTX)−1XTY)=σ2(XTX)−1var((XTX)−1XTY)=σ2(XTX)−1\text{var}((X^TX)^{-1}X^TY) = \sigma^2(X^TX)^{-1} Якщо розглядалися випадковим чином , закон загальної дисперсії буде, в деякому сенсі, вимагає додаткового вкладу дисперсії , а також. тобтоXXXXXX var ( β^) = var ( E( β^| …

3
Чи може лінійна регресія бути значною, якщо дані не є лінійними?
Я провів лінійну регресію, яка вийшла зі значним результатом, проте, коли я перевіряв графік розсіювання на лінійність, я не був впевнений, що дані лінійні. Чи є інші способи перевірити на лінійність, не перевіряючи розсіювач? Чи може лінійна регресія бути значною, якби вона не була лінійною? [Відредаговано, щоб включити розсіювачі]
11 regression 

2
Розуміння форми інтервалу довіри для поліноміальної регресії (MLR)
У мене є труднощі зрозуміти форму довірчого інтервалу поліноміальної регресії. Ось штучний приклад, . На лівій фігурі зображено UPV (немасштабна дисперсія прогнозу), а правий графік показує довірчий інтервал та (штучні) вимірювані точки при X = 1,5, X = 2 та X = 3.Y^= a + b ⋅ X+ c ⋅ …

1
Чи слід застосовувати виправлення ступенів свободи для висновку про параметри GLM?
Це питання натхнене відповіді Мартійна тут . Припустимо, ми підходимо до ГЛМ для одного сімейства параметрів, як біноміальна чи пуассонова модель, і що це повна ймовірність процедури (на відміну від сказати, квазіпоассон). Тоді дисперсія є функцією середнього. З двочленом: і з Пуассоном .var[X]=E[X]E[1−X]var[X]=E[X]E[1−X]\text{var}[X] = E[X]E[1-X]var[X]=E[X]var[X]=E[X]\text{var}[X] = E[X] На відміну від …

1
Багатоваріантна лінійна регресія проти декількох одновимірних регресійних моделей
У налаштуваннях універсальної регресії ми намагаємося моделювати y=Xβ+noisey=Xβ+noisey = X\beta +noise де вектор спостережень і матриця проектування з провісниками. Рішення - .y∈Rny∈Rny \in \mathbb{R}^nnnnX∈Rn×mX∈Rn×mX \in \mathbb{R}^{n \times m}mmmβ0=(XTX)−1Xyβ0=(XTX)−1Xy\beta_0 = (X^TX)^{-1}Xy У налаштуваннях багатоваріантної регресії ми намагаємося моделювати Y=Xβ+noiseY=Xβ+noiseY = X\beta +noise де - матриця з спостережень та різних прихованих змінних. …

2
Чому ці таблиці регресії anova однакові?
У мене є дві регресії одного і того ж Y і трирівневого X. Загалом n = 15, з n = 5 у кожній групі або рівня X. Перша регресія трактує X як категоричну, присвоюючи змінні показники рівням 2 і 3 з рівнем один з них є еталонним. Показники / манекени …
11 regression  anova 

4
Штучні нейронні мережі РІВНІ до лінійної регресії з поліноміальними ознаками?
Я хочу покращити своє розуміння нейронних мереж та їх переваг порівняно з іншими алгоритмами машинного навчання. Я розумію, як нижче, і моє питання: Чи можете ви виправити та доповнити моє розуміння, будь ласка? :) Моє розуміння: (1) Штучні нейронні мережі = Функція, яка прогнозує вихідні значення із вхідних значень. Відповідно …

2
Чи розділення даних на тестові та навчальні набори суто "статистика"?
Я студент фізики, який вивчає машинне навчання / науку даних, тому не маю на увазі, щоб із цим питанням виникали будь-які конфлікти :) Однак значна частина будь-якої програми з фізики в університеті - це робити лабораторії / експерименти, що означає багато даних обробка та статистичний аналіз. Однак я помічаю різку …

1
Як інтерпретувати результати, коли і гребінець, і ласо окремо працюють добре, але дають різні коефіцієнти
Я запускаю регресійну модель як з Лассо, так і з Ріджем (для прогнозу дискретної змінної результату в межах від 0 до 5). Перш ніж запустити модель, я використовую SelectKBestметод scikit-learnзменшення набору функцій з 250 до 25 . Без початкового вибору особливостей і Лассо, і Рідж поступаються нижчим показникам точності [що …

2
Якщо усадка застосовується розумно, чи завжди це працює краще для більш ефективних оцінювачів?
Припустимо, у мене є два оцінювачі та які є послідовними оцінками того самого параметра і такими, що з в сенсі psd. Таким чином, асимптотика є більш ефективною, ніж . Ці два оцінювачі засновані на різних функціях втрат.βˆ1β^1\widehat{\beta}_1βˆ2β^2\widehat{\beta}_2β0β0\beta_0n−−√(βˆ1−β0)→dN(0,V1),n−−√(βˆ2−β0)→dN(0,V2)n(β^1−β0)→dN(0,V1),n(β^2−β0)→dN(0,V2)\sqrt{n}(\widehat{\beta}_1 -\beta_0) \stackrel{d}\rightarrow \mathcal{N}(0, V_1), \quad \sqrt{n}(\widehat{\beta}_2 -\beta_0) \stackrel{d}\rightarrow \mathcal{N}(0, V_2)V1≤V2V1≤V2V_1 \leq V_2βˆ1β^1\widehat{\beta}_1βˆ2β^2\widehat{\beta}_2 Тепер …

2
Якщо ви не можете зробити це ортогонально, зробіть це сирим (поліноміальна регресія)
Виконуючи поліноміальну регресію для на , люди іноді використовують неочищені многочлени, іноді ортогональні многочлени. Але коли вони використовують те, що здається абсолютно довільним.XYYYXXX Тут і тут використовуються сирі многочлени. Але тут і тут ортогональні многочлени, здається, дають правильні результати. Що, як, чому ?! На відміну від цього, коли ви дізнаєтесь …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.