Я почав вивчати нейронні мережі з навчального посібника з нейронної роботи та вивчення навчальних точок. Зокрема, у 3-му розділі є розділ про функцію логічної ентропії та визначається втрата поперечної ентропії як:
Однак, читаючи вступ Tensorflow , втрата поперечної ентропії визначається як:
(при використанні тих же символів, що і вище)
Тоді, шукаючи навколо, щоб знайти, що відбувається, я знайшов ще один набір приміток: ( https://cs231n.github.io/linear-classify/#softmax-classifier ), який використовує зовсім інше визначення перехресної ентропійної втрати, хоча це час для класифікатора softmax, а не для нейронної мережі.
Може хтось пояснить мені, що тут відбувається? Чому існують розбіжності btw. як люди визначають втрату перехресної ентропії як? Чи є лише якийсь всеохоплюючий принцип?