Запитання з тегом «sigmoid-curve»

4
Чому танг майже завжди кращий за сигмоподібну як функцію активації?
У курсі " Нейронні мережі та глибоке навчання" Ендрю Нґ на "Coursera" він говорить, що використання майже завжди краще використовувати .t a n hтангодtanhs i gмо я дсiгмоiгsigmoid Причина, яку він наводить, полягає в тому, що результати, що використовують центр навколо 0, а не 0,5, і це "трохи спрощує навчання …

3
Relu vs Sigmoid vs Softmax як нейрони прихованого шару
Я грав у простій Нейронній мережі з лише одним прихованим шаром, від Tensorflow, і тоді я спробував різні активації для прихованого шару: Relu Сигмоїдний Softmax (ну зазвичай softmax використовується в останньому шарі ..) Relu забезпечує найкращу точність поїздів та точність перевірки. Я не впевнений, як це пояснити. Ми знаємо, що …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.