Запитання з тегом «regression»

Методи аналізу взаємозв'язку між однією (або більше) змінними "залежними" та "незалежними" змінними.

4
Чи має сенс додати в модель квадратичний термін, але не лінійний член?
У мене є (змішана) модель, в якій один з моїх прогнозів апріорі повинен апріорі бути пов'язаний лише квадратично з предиктором (через експериментальну маніпуляцію). Отже, я хотів би додати в модель лише квадратичний термін. Дві речі заважають мені це робити: Я думаю, що я читав, що коли-небудь слід включати поліном нижчого …

2
Регресія Байєса: як це робиться порівняно зі стандартною регресією?
У мене виникли питання щодо байєсівської регресії: Дано стандартну регресію як . Якщо я хочу змінити це в Байєсова регресію, чи потрібно мені апріорні розподілу як для і (або вона не працює таким чином)?y=β0+β1x+εy=β0+β1x+εy = \beta_0 + \beta_1 x + \varepsilonβ0β0\beta_0β1β1\beta_1 У стандартній регресії намагаються мінімізувати залишки, щоб отримати одиничні …

6
Регуляризація L2 еквівалентна пріоритету Гаусса
Я продовжую читати це і інтуїтивно можу це бачити, але як можна перейти від регуляризації L2 до того, що аналітично це Гаос-пріор? Те саме говорить і те, що L1 еквівалентний попередньому Лапласану. Будь-які подальші посилання були б чудовими.

1
Логістична регресія в R призвела до ідеального розділення (феномен Хока-Доннера). А тепер що?
Я намагаюся передбачити бінарний результат, використовуючи 50 безперервних пояснювальних змінних (діапазон більшості змінних становить до ). Мій набір даних має майже 24 000 рядків. Коли я бігаю в R, я отримую:−∞−∞-\infty∞∞\inftyglm Warning messages: 1: glm.fit: algorithm did not converge 2: glm.fit: fitted probabilities numerically 0 or 1 occurred Я прочитав …

2
Більш чітке обговорення варіабельного вибору
Фон Я займаюся клінічними дослідженнями в медицині і пройшов кілька курсів статистики. Я ніколи не публікував папір з використанням лінійної / логістичної регресії і хотів би зробити вибір змінної правильно. Інтерпретабельність є важливою, тому немає фантазійних методик машинного навчання. Я узагальнив своє розуміння варіабельного вибору - чи хтось буде проти …

6
Альтернативи логістичній регресії в R
Мені б хотілося стільки алгоритмів, які виконують те саме завдання, що і логістична регресія. Це алгоритми / моделі, які можуть передбачити двійкову відповідь (Y) з деякою пояснювальною змінною (X). Буду радий, якби ви назвали алгоритм, ви також показали, як його реалізувати в R. Ось код, який можна оновити за допомогою …

5
Чи коригування р-значень у множинній регресії для кількох порівнянь є гарною ідеєю?
Припустимо, ви дослідник соціологічних наук / економетрист, який намагається знайти відповідних прогнозів попиту на послугу. У вас є 2 змінних, що залежать від результату / описують попит (використовуючи послугу "Так / ні" та кількість випадків). У вас є 10 змінних прогнозів / незалежних, які теоретично можуть пояснити попит (наприклад, вік, …

3
Багатоваріантна лінійна регресія проти нейронної мережі?
Здається, що можна отримати подібні результати до нейронної мережі з багатоваріантною лінійною регресією в деяких випадках, а багатоваріантна лінійна регресія - дуже швидка і проста. За яких обставин нейронні мережі можуть дати кращі результати, ніж багатоваріантна лінійна регресія?

3
Box-Cox як перетворення для незалежних змінних?
Чи існує трансформація типу Box-Cox для незалежних змінних? Тобто перетворення, яке оптимізує змінну так, що волевиявлення зробить більш розумним пристосування для лінійної моделі?хxxy~f(x) Якщо так, чи є функція для цього R?

6
Ефективна онлайн-лінійна регресія
Я аналізую деякі дані там, де мені хотілося б виконати звичайну лінійну регресію, однак це неможливо, оскільки я маю справу з он-лайн налаштуваннями з безперервним потоком вхідних даних (який швидко стане занадто великим для пам’яті) і потрібно для оновлення оцінок параметрів під час споживання. тобто я не можу просто завантажити …

2
Що означає наявність «постійної дисперсії» в моделі лінійної регресії?
Що означає наявність «постійної дисперсії» у терміні помилки? Як я бачу, у нас є дані з однією залежною змінною та однією незалежною змінною. Постійна дисперсія є одним із припущень лінійної регресії. Мені цікаво, що означає гомоскедастичність. Оскільки навіть якщо у мене 500 рядків, я мав би значення однієї дисперсії, яке, …

3
Чому ми так сильно піклуємося про нормально розподілених термінах помилок (і гомоскедастичності) в лінійній регресії, коли нам цього не потрібно?
Я припускаю, що я засмучуюся кожного разу, коли чую, як хтось каже, що ненормальність залишків та / або гетерокедастичність порушує припущення OLS. Для оцінки параметрів в моделі OLS жодне з цих припущень теоремою Гаусса-Маркова не потрібно. Я бачу, як це має значення в Тестуванні гіпотез для моделі OLS, тому що, …

5
Чи потрібно масштабувати цільове значення на додаток до масштабування для регресійного аналізу?
Я будую регресійні моделі. Як крок попередньої обробки, я масштабую свої функції, щоб вони мали середнє значення 0 і стандартне відхилення 1. Чи потрібно також нормалізувати цільові значення?

4
Чому б не підходити до класифікації через регресію?
Деякий матеріал, який я бачив на машинному навчанні, говорив, що погана ідея підходити до проблеми класифікації шляхом регресії. Але я думаю, що завжди можна зробити безперервну регресію, щоб відповідати даним і скоротити безперервний прогноз, щоб отримати дискретні класифікації. То чому це погана ідея?

3
Чи може бути використаний випадковий ліс для вибору ознак при множинній лінійній регресії?
Оскільки РФ може обробляти нелінійність, але не може надати коефіцієнтів, чи було б розумно використовувати випадковий ліс для збору найважливіших характеристик, а потім підключити ці функції до множинної лінійної регресійної моделі для отримання їх коефіцієнтів?

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.