Яка похідна від функції активації ReLU?


16

Яка похідна функції активації ReLU визначається як:

ReLU(x)=max(0,x)

Що з особливим випадком, коли в спостерігається розрив функції ?x=0

Відповіді:


17

Похідна:

f(x)={0if x<01if x>0

І невизначено в .x=0

Причина його невизначення при полягає в тому, що його ліва і права похідна не рівні.x=0


1
01x=0

2
Конвенція полягає в тому, що drdx = 1 (x> 0)
neuroguy123

f(0)=12

3
@TomHale, до речі, дивіться відповідь Нуроза Рахмана на сайті quora.com/… : "[...] На мій погляд, вбудована функція бібліотеки (наприклад tf.nn.relu()
Джим
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.