Запитання з тегом «overfitting»

Помилка моделювання (особливо помилка вибірки) замість повторюваних та інформативних зв’язків між змінними покращує статистику придатності моделі, але зменшує парситивність та погіршує пояснювальну та прогнозовану достовірність.


6
Чи регрес хребта марний у великих розмірах ( )? Як OLS не може перевиконати?
Розглянемо стару добру проблему регресії з прогнокторами та розміром вибірки . Звичайна мудрість полягає в тому, що Оцінювач OLS буде перевершувати і, як правило, перевершує оцінку гребінної регресії:Для пошуку оптимального параметра регуляризації стандартно використовувати перехресну перевірку . Тут я використовую 10-кратне резюме. Оновлення уточнення: коли , під "Оцінювачем OLS" я …

6
Випадковий ліс - як поводитися з насадкою
У мене є інформація з інформатики, але я намагаюся навчити себе даним, вирішуючи проблеми в Інтернеті. Я працюю над цією проблемою останні кілька тижнів (приблизно 900 рядків і 10 функцій). Спочатку я використовував логістичну регресію, але тепер перейшов на випадкові ліси. Коли я запускаю свою випадкову лісову модель за моїми …

4
Чи схвалив журнал Science «Сад форкінгу патетів»?
Ідея адаптивного аналізу даних полягає в тому, що ви змінюєте свій план аналізу даних, коли ви дізнаєтесь більше про них. Що стосується дослідницького аналізу даних (EDA), це, як правило, гарна ідея (ви часто шукаєте непередбачені зразки в даних), але для підтверджуючого дослідження це широко сприймається як дуже хибний метод аналізу …

4
Як можливо, що втрати валідації збільшуються, а точність перевірки також збільшується
Я треную просту нейронну мережу на наборі даних CIFAR10. Через деякий час втрати валідації почали зростати, тоді як точність перевірки також зростає. Втрати тесту та точність випробувань продовжують поліпшуватися. Як це можливо? Схоже, якщо збільшення втрат валідації, точність повинна знизитися. PS Є кілька подібних питань, але ніхто не пояснив, що …

5
Перевищення логістичної регресійної моделі
Чи можливо перевиконати модель логістичної регресії? Я побачив відео, яке говорить про те, що якщо моя площа під кривою ROC вище 95%, то, швидше за все, це буде надмірно встановленим, але чи можна переоцінити логістичну регресійну модель?

6
Чому менші ваги призводять до спрощення моделей при регуляризації?
Я закінчив курс машинного навчання Ендрю Нґ близько року тому, і зараз пишу моє дослідження середньої математики про роботу логістичної регресії та методи оптимізації ефективності. Однією з таких методик є, звичайно, регуляризація. Метою регуляризації є запобігання надмірного пристосування шляхом розширення функції витрат на включення мети простоти моделі. Ми можемо досягти …

5
Невже завищена модель обов'язково марна?
Припустимо, що модель має 100% точність на даних тренувань, але 70% точність на даних тесту. Чи справедливо наступний аргумент щодо цієї моделі? Очевидно, що це надмірна модель. Точність тесту може бути підвищена за рахунок зменшення насадки. Але ця модель все ще може бути корисною моделлю, оскільки вона має прийнятну точність …

2
Чи правда, що байєсівські методи не переборщують?
Чи правда, що байєсівські методи не переборщують? (Я бачив деякі документи та навчальні посібники, які заявляють про це) Наприклад, якщо ми застосуємо Гауссовий процес до MNIST (рукописна класифікація), але покажемо йому єдиний зразок, чи повернеться він до попереднього розподілу для будь-яких входів, відмінних від цього єдиного зразка, як би невелика …

2
Чи є сенс поєднувати PCA та LDA?
Припустимо, у мене є набір даних для контрольованої статистичної задачі класифікації, наприклад, через класифікатор Байєса. Цей набір даних складається з 20 функцій, і я хочу звести його до двох функцій за допомогою методів зменшення розмірності, таких як аналіз основних компонентів (PCA) та / або лінійний дискримінантний аналіз (LDA). Обидві методи …

4
«Напівнавчальне навчання» - це надмірна підготовка?
Я читав звіт про переможне рішення конкурсу Kaggle ( Класифікація зловмисних програм ). Звіт можна знайти у цьому дописі на форумі . Проблема була проблемою класифікації (дев'ять класів, метрика - логарифмічна втрата) із 10000 елементами в наборі поїздів, 10000 елементами в тестовому наборі. Під час змагань моделі оцінювались проти 30% …

9
Переобладнання та недооцінка
Я провів декілька досліджень щодо пристосування та недоопрацювання, і зрозумів, що вони саме є, але не можу знайти причин. Які основні причини перевиконання та недоотримання? Чому ми стикаємося з цими двома проблемами при навчанні моделі?

1
Дискусія про перевитрату в xgboost
Моя настройка така: Я дотримуюся вказівок у "Прикладному прогнозуванні". Таким чином, я відфільтрував відповідні функції та закінчив таке: 4900 балів даних у навчальному наборі та 1600 точок даних у тестовому наборі. У мене є 26 функцій, а ціль - це суцільна змінна. Я застосовую 5-кратну перехресну перевірку для тренування моделей …

5
Уникайте перевищення в регресії: альтернативи регуляризації
Регуляризація в регресії (лінійна, логістична ...) є найпопулярнішим способом зменшення перенапруги. Коли мета - точність прогнозування (не пояснення), чи існують якісь альтернативи регуляризації, особливо підходящі для великих наборів даних (ми / мільярди спостережень та мільйони функцій)?

2
Підвищення: чому ступінь навчання називається параметром регуляризації?
Параметр швидкості навчання ( ) у Gradient Boosting скорочує внесок кожної нової базової моделі - типово неглибокого дерева -, яка додається у серії. Було показано, що різко підвищити точність тестового набору, що зрозуміло, оскільки при менших кроках мінімум функції втрат можна досягти більш точно. ν∈ [ 0 , 1 ]ν∈[0,1]\nu …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.