Запитання з тегом «cross-entropy»

11
Яке значення слова logits у TensorFlow?
У наступній функції TensorFlow ми повинні подати активацію штучних нейронів у заключному шарі. Це я розумію. Але я не розумію, чому це називається logits? Це не математична функція? loss_function = tf.nn.softmax_cross_entropy_with_logits( logits = last_layer, labels = target_output )

3
Яка різниця між sparse_softmax_cross_entropy_with_logits та softmax_cross_entropy_with_logits?
Нещодавно я натрапив на tf.nn.sparse_softmax_cross_entropy_with_logits і не можу зрозуміти, у чому різниця порівняно з tf.nn.softmax_cross_entropy_with_logits . Єдина відмінність у тому, що навчальні вектори yповинні бути кодировані гарячими при використанні sparse_softmax_cross_entropy_with_logits? Читаючи API, я не зміг знайти жодної іншої різниці порівняно з softmax_cross_entropy_with_logits. Але навіщо нам тоді потрібна додаткова функція? Чи …

3
Що таке перехресна ентропія?
Я знаю, що існує багато пояснень, що таке перехресна ентропія, але я все ще бентежусь. Це лише метод опису функції втрат? Чи можемо ми використовувати алгоритм градієнтного спуску, щоб знайти мінімум за допомогою функції втрат?

2
Як вибрати перехресну ентропію в TensorFlow?
Проблеми класифікації, такі як логістична регресія або багатономіальна логістична регресія, оптимізують перехресну ентропію . Зазвичай шар перехресної ентропії слід за шаром softmax , який виробляє розподіл ймовірностей. У тенсорному потоці існує принаймні десяток різних функцій перехресної ентропії : tf.losses.softmax_cross_entropy tf.losses.sparse_softmax_cross_entropy tf.losses.sigmoid_cross_entropy tf.contrib.losses.softmax_cross_entropy tf.contrib.losses.sigmoid_cross_entropy tf.nn.softmax_cross_entropy_with_logits tf.nn.sigmoid_cross_entropy_with_logits ... Який з них працює …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.