16 Яка похідна функції активації ReLU визначається як: ReLU(x)=max(0,x)ReLU(x)=max(0,x) Що з особливим випадком, коли в спостерігається розрив функції ?x=0x=0 self-study neural-networks — Том Хейл джерело
17 Похідна: f(x)={01if x<0if x>0f(x)={0if x<01if x>0 І невизначено в .x=0x=0 Причина його невизначення при полягає в тому, що його ліва і права похідна не рівні.x=0x=0 — Джим джерело 1 0011x=0x=0 2 Конвенція полягає в тому, що drdx = 1 (x> 0) — neuroguy123 f(0)=12f(0)=12 3 @TomHale, до речі, дивіться відповідь Нуроза Рахмана на сайті quora.com/… : "[...] На мій погляд, вбудована функція бібліотеки (наприклад tf.nn.relu() — Джим