Запитання з тегом «regularization»

5
Чому додавання шару відсіву покращує ефективність глибокого / машинного навчання, враховуючи, що випадання пригнічує деякі нейрони з моделі?
Якщо видалення деяких нейронів призводить до більш ефективної моделі, чому б не використати в першу чергу більш просту нейронну мережу з меншими шарами і меншою кількістю нейронів? Навіщо будувати більшу, більш складну модель на початку і придушувати її частини згодом?

2
Навіщо використовувати регуляризацію L1 над L2?
Проведення лінійної регресійної моделі за допомогою функції втрат, чому я повинен використовувати L1L1L_1 замість L2L2L_2 регуляризація? Чи краще у запобіганні надмірного пристосування? Це детерміновано (тому завжди унікальне рішення)? Чи краще при виборі функцій (тому що виробляються рідкісні моделі)? Чи розподіляє ваги серед особливостей?

3
Вибір методу регуляризації в нейронних мережах
Під час тренування нейронних мереж існує щонайменше 4 способи регуляризації мережі: L1 Регуляризація L2 Регуляризація Опускати Нормалізація партії плюс звичайно інші речі, такі як розподіл ваги та зменшення кількості з'єднань, що може не бути регуляризацією в найсуворішому сенсі. Але як би вибрати, який із цих методів регуляризації використовувати? Чи є …

2
Чи є дослідження, які досліджують випадання від інших регуляризацій?
Чи опубліковані будь-які статті, які показують відмінності методів регуляризації для нейронних мереж, бажано для різних доменів (або принаймні різних наборів даних)? Я запитую, тому що в даний час я відчуваю, що більшість людей, здається, використовують лише випадання для регуляризації в комп’ютерному зорі. Я хотів би перевірити, чи не було б …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.