Запитання з тегом «overfitting»

Помилка моделювання (особливо помилка вибірки) замість повторюваних та інформативних зв’язків між змінними покращує статистику придатності моделі, але зменшує парситивність та погіршує пояснювальну та прогнозовану достовірність.

1
Математичне / алгоритмічне визначення для накладання
Чи є математичне чи алгоритмічне визначення надфітфінгу? Часто даними визначеннями є класичний двовимірний графік точок з лінією, що проходить через кожну точку, і крива втрати валідації раптово піднімається вгору. Але чи є математично суворе визначення?

3
Чи достатньо перехресної перевірки, щоб запобігти надмірній відповідності?
Якщо у мене є дані і я запускаю класифікацію (скажімо, випадковий ліс за цими даними) з перехресною валідацією (скажімо, у 5 разів), чи можу я зробити висновок про те, що в моєму методі немає надмірного розміщення?

1
Чи є приватний лідер Kaggle хорошим прогнозувачем ефективності виграшної моделі поза зразком?
Хоча результати приватного тестового набору не можуть бути використані для подальшого вдосконалення моделі, чи не є вибір моделі з величезної кількості моделей на основі результатів приватного тестового набору? Чи не вдалося б ви, лише через цей процес, прилаштуватись до приватного тестового набору? Відповідно до "Псевдоматематики та фінансового шарлатанізму: Вплив перенапруження …

1
Чи не існує в статистиці теорії навчання проблема надмірного розміщення на тестовому наборі?
Розглянемо проблему класифікації набору даних MNIST. Згідно з веб-сторінкою MNIST Янна Лекуна , "Ciresan та ін." отримали 0,23% помилок на тестовому наборі MNIST за допомогою Convolutional Neural Network. Позначимо навчальний набір MNIST як , тестовий набір MNIST як D t e s t , остаточну гіпотезу, яку вони отримали, використовуючи …

2
Яку міру помилки в навчанні повідомити про випадкові ліси?
Наразі я підганяю випадкові ліси для проблеми класифікації, використовуючи randomForestпакунок на R, і не знаю, як повідомити про помилку навчання для цих моделей. Моя помилка тренінгу близька до 0%, коли я обчислюю її за допомогою передбачень, які я отримую за допомогою команди: predict(model, data=X_train) де X_trainдані про навчання. Відповідаючи на …


2
Помилка Out of Bag робить резюме непотрібним у випадкових лісах?
Я досить новачок у випадкових лісах. У минулому я завжди порівнював точність підгонки проти тесту проти пристосування проти поїзда, щоб виявити будь-який набір. Але я просто прочитав тут таке: "У випадкових лісах немає необхідності в перехресній валідації або в окремому наборі тесту, щоб отримати неупереджену оцінку помилки набору тестів. Оцінюється …

2
Оптимізація: корінь всього зла в статистиці?
Я чув таке вираз раніше: "Оптимізація - корінь усього зла в статистиці". Наприклад, головна відповідь у цій темі робить це твердження з посиланням на небезпеку занадто агресивної оптимізації під час вибору моделі. Перше моє запитання наступне: Чи цитата може бути приписана комусь зокрема? (наприклад, у статистичній літературі) Як я розумію, …

3
Як виявити, коли регресійна модель перестала відповідати?
Коли ви той, хто виконує роботу, усвідомлюючи, що ви робите, ви розвиваєте почуття, коли ви переоцінили модель. З одного боку, ви можете відстежувати тенденцію або погіршення в регульованій площі R моделі. Можна також відслідковувати подібне погіршення p-значень коефіцієнтів регресії основних змінних. Але, коли ви просто читаєте, що хтось інший вивчає, …

1
Поїзд проти тестової помилки та її зв'язок із Overfitting: примирення конфліктних порад
Здається, що там є суперечливі поради щодо того, як поводитись із порівнянням помилок поїзда та тесту, особливо коли між ними є розрив. Здається, дві школи думок, які мені здаються конфліктними. Я шукаю, щоб зрозуміти, як примирити їх (або зрозуміти, чого мені тут не вистачає). Думка № 1: Розрив між роботою …

2
Яким чином перехресне підтвердження k-кратного розміщення вписується в контекст навчальних / перевірочних / тестових наборів?
Моє головне питання - це намагання зрозуміти, як перехресна перевірка k-кратна вписується в контекст набору навчальних / валідаційних / тестувальних наборів (якщо вона взагалі відповідає такому контексту). Зазвичай люди говорять про розбиття даних на навчальний, валідаційний та тестовий набір - скажімо, у співвідношенні 60/20/20 за курс Ендрю Нґ - при …

2
Чи корельовані вхідні дані призводять до перевиконання нейронних мереж?
На мою думку, корельовані вхідні дані повинні призвести до надмірного розміщення в нейронних мережах, оскільки мережа засвоює кореляцію, наприклад, шум у даних. Це правильно?

1
Запобігання надмірному набору LSTM на невеликих наборах даних
Я моделюю 15000 твітів для прогнозування настроїв, використовуючи одношаровий LSTM з 128 прихованими одиницями, використовуючи Word2vec-подібне представлення з 80 вимірами. Я отримую точність спуску (38% з випадковим = 20%) після 1 епохи. Якщо більше тренувань, точність валідації починає знижуватися, коли точність тренування починає підніматися - явна ознака надягання. Тому я …

3
Чи краще вибирати дистрибуції на основі теорії, підходи чи чогось іншого?
Це межує з філософським питанням, але мене цікавить, як інші з більшим досвідом думають про вибір розподілу. У деяких випадках здається очевидним, що теорія може працювати найкраще (довжина хвоста мишей, ймовірно, нормально розподілена). У багатьох випадках, мабуть, немає теорії для опису набору даних, тож ви просто використовуєте щось, що відповідає …

3
Байезіан проти MLE, проблема, що відповідає
У PRML-книзі Бішопа він говорить, що надмірне оснащення - це проблема з максимальною оцінкою ймовірності (MLE), і Байєсій може цього уникнути. Але я думаю, що перевиконання - це проблема більше не щодо вибору моделі, а не щодо методу оцінки параметрів. Тобто, припустимо, у мене є набір даних , який генерується …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.