Чому силові або журнальні перетворення мало навчаються в машинному навчанні?


24

Машинне навчання (МЛ) активно використовує лінійні та логістичні методи регресії. Він також спирається на особливість інженерних методів ( feature transform, kernel, і т.д.).

Чому нічого не згадується про variable transformation(наприклад power transformation) в ML? (Наприклад, я ніколи не чую про те, щоб увімкнути або ввійти до функцій; вони, як правило, просто використовують поліноми або RBF.) Так само, чому б фахівці з ML не переймалися перетвореннями функцій залежної змінної? (Наприклад, я ніколи не чую про те, щоб прийняти перетворення журналу y; вони просто не перетворюють y.)

Редагує: Можливо, питання не є однозначним, моє справді питання "чи перетворення потужності на змінні не важливо в ML?"


4
Мені хотілося б знати, чому це було знято; це насправді цікаве питання.
shadowtalker

1
Я думаю, що більшість людей пройшли курс лінійної регресії до першого курсу ML. Звичайно, курс акцій LR містив би главу про ці речі (перетворення). До речі, я не спростував питання.
user603

Відповіді:


12

Книга прикладного передбачуваного моделювання Куна та Джонсона - це високоцінна практична книга машинного навчання з великим розділом про змінну трансформацію, включаючи Box-Cox. Автори стверджують, що багато алгоритмів машинного навчання працюють краще, якщо функції мають симетричні та одномодальні розподіли. Трансформація таких функцій є важливою частиною "інженерної характеристики".


8

Ну, з моєї власної точки зору, досить часто мене цікавить прогнозний розподіл змінної відповіді, а не просто умовне середнє значення, і в цьому випадку краще використовувати ймовірність, яка більш правильно представляє цільовий розподіл. Наприклад, мені більше подобається використовувати ядра лінійних моделей, а не (скажімо, підтримувати векторну регресію, тому що я можу використовувати ймовірність Пуассона, якщо хочу. Оскільки багато машинного навчання є байєсами, я підозрюю, що використання іншої ймовірності здасться більш елегантним, ніж трансформації (вибір відповідної ймовірності, як правило, є першим кроком).


0

Ось мої подальші думки.

Я думаю, це тому, що ML багато в чому має справу з класифікацією, і класифікація не потребує перетворення y (y категорично). ML зазвичай мають справу з великими незалежними змінними (наприклад, тисячами в NLP), і логістична регресія не вимагає нормальності; Я думаю, що тому вони не використовують трансформацію потужності Box-Cox через врахування швидкості. (зауважте: я не знайомий з трансформацією влади.)

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.