Нещодавно я натрапив на tf.nn.sparse_softmax_cross_entropy_with_logits і не можу зрозуміти, у чому різниця порівняно з tf.nn.softmax_cross_entropy_with_logits .
Єдина відмінність у тому, що навчальні вектори y
повинні бути кодировані гарячими при використанні sparse_softmax_cross_entropy_with_logits
?
Читаючи API, я не зміг знайти жодної іншої різниці порівняно з softmax_cross_entropy_with_logits
. Але навіщо нам тоді потрібна додаткова функція?
Чи не повинно бути softmax_cross_entropy_with_logits
таких самих результатів, як sparse_softmax_cross_entropy_with_logits
якщо б вони забезпечені однокольоровими кодованими навчальними даними / векторами?