2
Чому ReLU використовується як функція активації?
Функції активації використовуються для введення нелінійностей у лінійний вихід типу w * x + bв нейронній мережі. Який я здатний зрозуміти інтуїтивно для таких функцій активації, як сигмоїд. Я розумію переваги ReLU, яка уникає мертвих нейронів під час розмноження. Однак я не в змозі зрозуміти, чому ReLU використовується як функція …