Запитання з тегом «softmax»

22
Як реалізувати функцію Softmax в Python
З класу глибокого навчання Udacity , softmax y_i - це просто експоненція, поділена на суму експоненціала всього Y-вектора: Де S(y_i)функція софтмакса y_iі eє експоненціальною, і jні. стовпців у вхідному векторі Y. Я спробував таке: import numpy as np def softmax(x): """Compute softmax values for each sets of scores in x.""" …

9
Навіщо використовувати softmax на відміну від стандартної нормалізації?
У вихідному шарі нейронної мережі типово використовувати функцію softmax для наближення розподілу ймовірностей: Це обчислити дорого через показники. Чому б просто не виконати перетворення Z так, щоб усі результати були позитивними, а потім нормалізувались, поділивши всі результати на суму всіх результатів?

3
Яка різниця між sparse_softmax_cross_entropy_with_logits та softmax_cross_entropy_with_logits?
Нещодавно я натрапив на tf.nn.sparse_softmax_cross_entropy_with_logits і не можу зрозуміти, у чому різниця порівняно з tf.nn.softmax_cross_entropy_with_logits . Єдина відмінність у тому, що навчальні вектори yповинні бути кодировані гарячими при використанні sparse_softmax_cross_entropy_with_logits? Читаючи API, я не зміг знайти жодної іншої різниці порівняно з softmax_cross_entropy_with_logits. Але навіщо нам тоді потрібна додаткова функція? Чи …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.