3
Шар Softmax в нейромережі
Я намагаюся додати шар softmax до нейронної мережі, що навчається із зворотним розповсюдженням, тому я намагаюся обчислити його градієнт. SoftMax вихід годj= еzj∑ еzihj=ezj∑ezih_j = \frac{e^{z_j}}{\sum{e^{z_i}}} деjjj- номер вихідного нейрона. Якщо я виведу це, то отримаю ∂годj∂zj= годj( 1 - годj)∂hj∂zj=hj(1−hj)\frac{\partial{h_j}}{\partial{z_j}}=h_j(1-h_j) Подібно до логістичної регресії. Однак це неправильно, оскільки моя …