Зараз я готуюсь до іспиту з нейронних мереж. У кількох протоколах попередніх іспитів я читав, що функції активації нейронів (у багатошарових персептронах) повинні бути монотонними.
Я розумію, що функції активації повинні бути диференційованими, мати похідну, яка не є 0 у більшості точок, і бути нелінійною. Я не розумію, чому бути монотонним важливо / корисно.
Мені відомі наступні функції активації і що вони монотонні:
- ReLU
- Сигмоїдний
- Тан
- Softmax: Я не впевнений, що визначення одноманітності застосовується для функцій з
- Softplus
- (Особистість)
Однак я досі не бачу жодної причини, чому, наприклад, .
Чому функції активації повинні бути монотонними?
(Супутнє бокове запитання: чи є якась причина, чому логарифм / експоненціальна функція не використовується як функція активації?)