Просто додавши це роз’яснення, щоб кожен, хто прокручує це багато, міг хоча б правильно, оскільки існує стільки невірних відповідей.
Відповідь Діяншенга та відповідь ДжейкДже правильно його відповіли .
Нова відповідь, яку опублікував Шітал Шах, - ще краща і повніша відповідь.
Так, logit
як математична функція в статистиці, але logit
використовувана в контексті нейронних мереж різна. Статистичні дані тут logit
навіть не мають жодного сенсу.
Я не міг ніде знайти формальне визначення, але в logit
основному означає:
Сирі прогнози, що виходять з останнього шару нейронної мережі.
1. Це той самий тензор, на який ви застосовуєте argmax
функцію для отримання прогнозованого класу.
2. Це той самий тензор, який ви подаєте у softmax
функцію для отримання ймовірностей для передбачуваних класів.
Також з підручника на офіційному веб-сайті tensorflow:
Логітний шар
Останнім шаром нашої нейромережі є рівень logits, який поверне вихідні значення для наших прогнозів. Ми створюємо щільний шар з 10 нейронів (по одному для кожного цільового класу 0–9), з лінійною активацією (за замовчуванням):
logits = tf.layers.dense(inputs=dropout, units=10)
Якщо ви все ще розгублені, ситуація така:
raw_predictions = neural_net(input_layer)
predicted_class_index_by_raw = argmax(raw_predictions)
probabilities = softmax(raw_predictions)
predicted_class_index_by_prob = argmax(probabilities)
де predicted_class_index_by_raw
і predicted_class_index_by_prob
буде рівним.
Ще одна назва raw_predictions
цього коду в наведеному вище кодіlogit
.
Щодо того logit
... я поняття не маю. Вибачте.
[Редагувати: див. Цю відповідь щодо історичних мотивів цього терміну.]
Дрібниці
Хоча, якщо ви хочете, ви можете застосувати статистичні logit
до , probabilities
що вийти з softmax
функції.
Якщо ймовірність певного класу дорівнює p
,
то коефіцієнти журналу цього класу є L = logit(p)
.
Також ймовірність цього класу можна відновити як p = sigmoid(L)
, використовуючи sigmoid
функцію.
Хоча не дуже корисно для розрахунку коефіцієнтів журналу.