Я використовую стандартну версію логістичної регресії, щоб підходити мої вхідні змінні до двійкових вихідних змінних.
Однак у моїй проблемі негативні результати (0s) значно перевищують позитивні результати (1s). Співвідношення 20: 1. Тому, коли я треную класифікатор, здається, що навіть функції, які наголошують на можливості позитивного виводу, все ще мають дуже низькі (сильно негативні) значення для відповідних параметрів. Мені здається, що це відбувається тому, що просто занадто багато негативних прикладів, що тягнуть параметри в їх бік.
Тож мені цікаво, чи можна додати ваги (скажімо, використовуючи 20 замість 1) для позитивних прикладів. Чи це взагалі виграє? І якщо так, то як слід додати ваги (у рівняннях нижче).
Функція вартості виглядає наступним чином:
Градієнт цієї функції витрат (wrt ) становить:
Тут = кількість тестових випадків, = матриця ознак, = вектор виводу, = сигмоїдна функція, = параметри, які ми намагаємося вивчити.
Нарешті я проводжу спуск градієнта, щоб знайти найменший можливий. Здається, реалізація працює належним чином.