Співвідношення між швидкістю навчання та кількістю прихованих шарів?


10

Чи є якесь правило між глибиною нейронної мережі та швидкістю навчання? Я помічав, що чим глибше мережа, тим нижчим повинен бути рівень навчання.

Якщо це правильно, чому це так?


1
пов'язана дискусія щодо стимулюючої моделі. stats.stackexchange.com/questions/168666/…
Хайтао Ду

Дискусія надає корисну інформацію, але вона не відповідає на моє запитання. Чи можете ви прокоментуйте це?
user_1177868

1
так, саме тому я коментував це, але не відповідав, і підтримував ваші запитання.
Хайтао Ду

Відповіді:


4

На це питання відповіли тут:

Якщо нейронні мережі повинні бути якимось чином пропорційними розмірам прихованого шару? Чи повинні вони впливати один на одного?

Коротка відповідь - так, стосунки є. Хоча співвідношення не таке тривіальне, все, що я можу вам сказати, те, що ви бачите, це те, що поверхня оптимізації стає складнішою, оскільки кількість прихованих шарів збільшується, тому менші показники навчання загалом кращі. Хоча застрягання в локальних мінімумах - це можливість з низькою швидкістю навчання, але це набагато краще, ніж складна поверхня і висока швидкість навчання.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.