Запитання з тегом «regression»

Методи аналізу взаємозв'язку між однією (або більше) змінними "залежними" та "незалежними" змінними.

5
Яка очікувана кореляція між залишковою та залежною змінною?
У декількох лінійних регресіях я можу зрозуміти, що кореляція між залишковим та предиктором дорівнює нулю, але яка очікувана кореляція між залишковою та критеріальною змінною? Чи слід очікувати, що він буде нульовим або сильно корелює? У чому сенс цього?

4
Нейронна мережа з пропускними рівнями
Мене цікавить регресія з нейронними мережами. Нейронні мережі з нульовими прихованими вузлами + з'єднання пропускового шару є лінійними моделями. Що з тими ж нейронними мережами, але із прихованими вузлами? Мені цікаво, якою була б роль з'єднань пропускового шару? Інтуїтивно, я б сказав, що якщо включити з'єднання пропускового шару, то остаточна …

1
Чи є алгоритм, що поєднує класифікацію та регресію?
Мені цікаво, чи може якийсь алгоритм одночасно робити класифікацію та регресію. Наприклад, я хотів би дозволити алгоритму вивчити класифікатор, і в той же час в межах кожної мітки він також дізнається безперервну ціль. Таким чином, для кожного прикладу навчання він має категоричну етикетку та постійне значення. Спочатку я міг би …

3
Інтерпретація регуляризації хребта в регресії
У мене є кілька запитань щодо каймового штрафу в контексті найменших квадратів: βridge=(λID+X′X)−1X′yβridge=(λID+X′X)−1X′y\beta_{ridge} = (\lambda I_D + X'X)^{-1}X'y 1) Вираз говорить про те, що матриця коваріації X скорочується до діагональної матриці, тобто, якщо припустити, що змінні стандартизовані перед процедурою, кореляція між вхідними змінними буде знижена. Чи правильне це тлумачення? 2) …

5
Як найважливіші основні компоненти можуть утримати силу прогнозування залежної змінної (або навіть призвести до кращих прогнозів)?
Припустимо , що я біжу регресію Y∼XY∼XY \sim X . Чому, вибираючи компоненти kkk принципу XXX , модель зберігає свою прогнозовану потужність на YYY ? Я розумію , що з розмірністю-відновлювальних / функція відбору точки зору, якщо v1,v2,...vkv1,v2,...vkv_1, v_2, ... v_k - власні вектори матриці коваріації з верхніми власними значеннями, …

2
Кореляція між оцінками OLS для перехоплення та нахилу
У простій регресійній моделі y=β0+β1x+ε,y=β0+β1x+ε, y = \beta_0 + \beta_1 x + \varepsilon, OLS-оцінки та співвідносяться.ββ^OLS0β^0OLS\hat{\beta}_0^{OLS}β^OLS1β^1OLS\hat{\beta}_1^{OLS} Формула кореляції між двома оцінювачами є (якщо я правильно її вивів): Corr(β^OLS0,β^OLS1)=−∑ni=1xin−−√∑ni=1x2i−−−−−−−√.Corr⁡(β^0OLS,β^1OLS)=−∑i=1nxin∑i=1nxi2. \operatorname{Corr}(\hat{\beta}_0^{OLS},\hat{\beta}_1^{OLS}) = \frac{-\sum_{i=1}^{n}x_i}{\sqrt{n} \sqrt{\sum_{i=1}^{n}x_i^2} }. Запитання: Яке інтуїтивне пояснення наявності кореляції? Чи має наявність кореляції важливі наслідки? Повідомлення було відредаговано, і твердження …

3
Як моделювати цей непарний розподіл (майже зворотний J)
Моя залежна змінна, показана нижче, не відповідає жодному мені відомості про розподіл запасів. Лінійна регресія створює дещо ненормальні залишки з правою косою, які відносяться до передбачуваного Y незвичайним чином (2-й графік). Будь-які пропозиції щодо перетворень чи інші способи отримання найбільш вагомих результатів та найкращої точності прогнозування? Якщо можливо, я хотів …

2
Порівнюючи згладжуючі сплайни та льоси для згладжування?
Я б хотів краще зрозуміти плюси / мінуси використання або лесових, або згладжуючих сплайнів для згладжування деякої кривої. Ще одна варіація мого питання полягає в тому, чи є спосіб побудувати згладжуючий сплайн таким чином, що дасть ті самі результати, що і використання льосу. Будь-яка посилання чи розуміння вітаються.

1
Які діагностичні діаграми існують для кількісної регресії?
Відповідаючи на запитання щодо OLS , мені цікаво: які діагностичні діаграми існують для кількісної регресії? (а чи є їх реалізація?) Швидкий пошук в Google вже з'явився з черв'ячним сюжетом (про який я раніше ніколи не чув), і я з радістю дізнаюся про інші методи, про які ви могли б знати. …

2
Інтуїція за логістичною регресією
Нещодавно я почав вивчати машинне навчання, проте мені не вдалося зрозуміти інтуїцію за логістичною регресією . Далі наведені факти про логістичну регресію, які я розумію. В якості основи гіпотези ми використовуємо сигмоїдну функцію . Я розумію , чому це правильний вибір, проте , чому це єдиний вибір , який я …



2
Як підтримується векторна регресія інтуїтивно?
Усі приклади SVM пов'язані з класифікацією. Я не розумію, як SVM для регресії (вектор регресора підтримки) може бути використаний при регресії. З мого розуміння, SVM максимально збільшує запас між двома класами, щоб знайти оптимальну гіперплану. Як це могло б працювати в регресійній проблемі?
25 regression  svm 

3
Чому силові або журнальні перетворення мало навчаються в машинному навчанні?
Машинне навчання (МЛ) активно використовує лінійні та логістичні методи регресії. Він також спирається на особливість інженерних методів ( feature transform, kernel, і т.д.). Чому нічого не згадується про variable transformation(наприклад power transformation) в ML? (Наприклад, я ніколи не чую про те, щоб увімкнути або ввійти до функцій; вони, як правило, …

4
Алгоритми виявлення аномалії часових рядів
Зараз я використовую AnomalyDetection Twitter в R: https://github.com/twitter/AnomalyDetection . Цей алгоритм забезпечує виявлення аномалії часових рядів для даних із сезонністю. Питання: чи існують подібні алгоритми, подібні до цього (контроль за сезонністю не має значення)? Я намагаюся оцінити якомога більше алгоритмів часових рядів на моїх даних, щоб я міг вибрати найкращий …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.