Запитання з тегом «regression»

Методи аналізу взаємозв'язку між однією (або більше) змінними "залежними" та "незалежними" змінними.

2
Ступені свободи
Статистика тесту для тесту Хосмера-Лемешоу (HLT) на корисність (GOF) моделі логістичної регресії визначається наступним чином: Потім зразок розбивають на децилів, , на децил, обчислюють такі величини:г= 10d=10d=10D1, D2, … , DгD1,D2,…,DdD_1, D_2, \dots , D_{d} D dО1 д= ∑i ∈ DгуiO1d=∑i∈DdyiO_{1d}=\displaystyle \sum_{i \in D_d} y_i , тобто спостерігається кількість позитивних …

4
(Чому) у переоснащених моделей властиві великі коефіцієнти?
Я думаю, що чим більший коефіцієнт змінної, тим більше здатність моделі до того, щоб «розгойдуватися» в цьому вимірі, забезпечуючи збільшену можливість підключення шуму. Хоча я думаю, що у мене є розумний сенс взаємозв'язку між дисперсією моделі та великими коефіцієнтами, я не маю настільки хорошого розуміння того, чому вони трапляються в …

1
Чи регресія з регуляризацією L1 така сама, як у Лассо, а з регуляризацією L2 така ж, як і регресія хребта? А як написати "Лассо"?
Я програмний інженер, який навчається машинному навчанню, зокрема, через курси машинного навчання Ендрю Нґ . Під час вивчення лінійної регресії з регуляризацією я виявив терміни, які заплутані: Регресія з L1 регуляризацією або L2 регуляризацією ЛАССО Регресія хребта Тож мої запитання: Чи регресія з регуляризацією L1 точно така ж, як і …


2
Розуміння форми та обчислення смуг довіри в лінійній регресії
Я намагаюся зрозуміти походження вигнутої форми довірчих смуг, пов'язаних з лінійною регресією OLS, і як це стосується довірчих інтервалів параметрів регресії (нахилу та перехоплення), наприклад (за допомогою R): require(visreg) fit <- lm(Ozone ~ Solar.R,data=airquality) visreg(fit) Виявляється, смуга пов'язана з межами ліній, обчислених з перехопленням 2,5% та нахилом 97,5%, а також …

2
Теорія за частковою регресією найменших квадратів
Чи може хтось порекомендувати гарне виклад теорії за частковою регресією найменших квадратів (доступна в Інтернеті) для тих, хто розуміє SVD та PCA? Я переглянув багато джерел в Інтернеті і не знайшов нічого, що мав би правильне поєднання суворості та доступності. Я розглянув "Елементи статистичного навчання" , що було запропоновано в …

4
Навіщо використовувати регуляризацію при поліномічній регресії замість зниження ступеня?
Наприклад, при регресії, наприклад, обирати два гіперпараметри - це частота функції (наприклад, найбільший показник многочлена) та величина регуляризації. Що мене бентежить, це чому просто не вибрати функцію низької ємності, а потім ігнорувати будь-яку регуляризацію? Таким чином, це не буде надмірно. Якщо у мене є функція високої ємності разом з регуляризацією, …

3
Набори даних, побудовані для цілей, подібних до квартету Anscombe
Я щойно натрапив на квартет Anscombe (чотири набори даних, які мають майже нерозрізнену описову статистику, але виглядають зовсім інакше, якщо побудовано на графіці), і мені цікаво, чи є інші більш-менш відомі набори даних, які були створені для демонстрації важливості певних аспектів статистичних аналізів.

1
Чому R повертає NA як коефіцієнт lm ()?
Я вписую lm()модель до набору даних, що включає показники за фінансовий квартал (Q1, Q2, Q3, що робить Q4 за замовчуванням). Використовуючи lm(Y~., data = data) Я отримую NAяк коефіцієнт для Q3, і попередження про те, що одна змінна була виключена через особливості. Чи потрібно додати стовпчик Q4?
32 r  regression 

7
Чи існують алгоритми для обчислення параметрів лінійної або логістичної регресії “працює”?
Документ "Точне обчислення дисперсії бігу" на веб- сайті http://www.johndcook.com/standard_deviation.html показує, як обчислити середнє, дисперсійне та стандартне відхилення. Чи існують алгоритми, де параметри лінійної або логістичної регресійної моделі можуть аналогічно "динамічно" оновлюватися, коли надається кожен новий запис навчання?

2
Функція витрат у лінійній регресії OLS
Я трохи плутаю лекцію про лінійну регресію, яку виголосив Ендрю Нґ на Coursera про машинне навчання. Там він дав функцію витрат, яка мінімізує суму квадратів: 12 м∑i = 1м( годθ( X( i )) - Y( i ))212м∑i=1м(годθ(Х(i))-Y(i))2 \frac{1}{2m} \sum _{i=1}^m \left(h_\theta(X^{(i)})-Y^{(i)}\right)^2 Я розумію, звідки походить . Я думаю, що він …

1
Яка різниця між "коефіцієнтом визначення" та "середньою помилкою у квадраті"?
Для проблеми з регресією я бачив, як люди використовують "коефіцієнт визначення" (він же R квадрат) для вибору моделі, наприклад, знаходження відповідного коефіцієнта штрафу для регуляризації. Однак, також зазвичай використовується "середня помилка в квадраті" або "помилка середнього квадрату" як міра точності регресії. То в чому головна відмінність цих двох? Чи можна …

1
CNN архітектури для регресії?
Я працював над проблемою регресії, де вводом є зображення, а мітка - це постійне значення між 80 і 350. Зображення містять деякі хімічні речовини після реакції. Колір, який виявляється, вказує на концентрацію іншого хімічного речовини, що залишився, і ось що виводить модель - концентрацію цієї хімічної речовини. Зображення можна обертати, …

2
Логістична регресія: Scikit Learn vs Statsmodels
Я намагаюся зрозуміти, чому результати з логістичної регресії цих двох бібліотек дають різні результати. Я використовую набір даних з UCLA Idre підручник , прогнозуючи на admitоснові gre, gpaі rank. rankтрактується як категоріальна змінна, тому спочатку перетворюється на манекенну змінну зі rank_1скинутим. Також додається стовпчик перехоплення. df = pd.read_csv("https://stats.idre.ucla.edu/stat/data/binary.csv") y, X …

1
Негативне запитання про біноміальну регресію - це погана модель?
Я читаю дуже цікаву статтю Продавців та Шмуелі про регресійні моделі для підрахунку даних. Близько початку (стор. 944) вони цитують МакКаллау та Нелдера (1989), які стверджують, що негативна біноміальна регресія непопулярна і має проблематичну канонічну зв'язок. Я знайшов згаданий уривок, і він говорить (стор. 374 М і N) "Здається, мало …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.