Нещодавно я натрапив на tf.nn.sparse_softmax_cross_entropy_with_logits і не можу зрозуміти, у чому різниця порівняно з tf.nn.softmax_cross_entropy_with_logits .
Єдина відмінність у тому, що навчальні вектори yповинні бути кодировані гарячими при використанні sparse_softmax_cross_entropy_with_logits?
Читаючи API, я не зміг знайти жодної іншої різниці порівняно з softmax_cross_entropy_with_logits. Але навіщо нам тоді потрібна додаткова функція?
Чи не повинно бути softmax_cross_entropy_with_logitsтаких самих результатів, як sparse_softmax_cross_entropy_with_logitsякщо б вони забезпечені однокольоровими кодованими навчальними даними / векторами?