Просто додавши це роз’яснення, щоб кожен, хто прокручує це багато, міг хоча б правильно, оскільки існує стільки невірних відповідей.
Відповідь Діяншенга та відповідь ДжейкДже правильно його відповіли .
Нова відповідь, яку опублікував Шітал Шах, - ще краща і повніша відповідь.
Так, logit як математична функція в статистиці, але logitвикористовувана в контексті нейронних мереж різна. Статистичні дані тут logitнавіть не мають жодного сенсу.
Я не міг ніде знайти формальне визначення, але в logitосновному означає:
Сирі прогнози, що виходять з останнього шару нейронної мережі.
1. Це той самий тензор, на який ви застосовуєте argmaxфункцію для отримання прогнозованого класу.
2. Це той самий тензор, який ви подаєте у softmaxфункцію для отримання ймовірностей для передбачуваних класів.
Також з підручника на офіційному веб-сайті tensorflow:
Логітний шар
Останнім шаром нашої нейромережі є рівень logits, який поверне вихідні значення для наших прогнозів. Ми створюємо щільний шар з 10 нейронів (по одному для кожного цільового класу 0–9), з лінійною активацією (за замовчуванням):
logits = tf.layers.dense(inputs=dropout, units=10)
Якщо ви все ще розгублені, ситуація така:
raw_predictions = neural_net(input_layer)
predicted_class_index_by_raw = argmax(raw_predictions)
probabilities = softmax(raw_predictions)
predicted_class_index_by_prob = argmax(probabilities)
де predicted_class_index_by_rawі predicted_class_index_by_probбуде рівним.
Ще одна назва raw_predictionsцього коду в наведеному вище кодіlogit .
Щодо того logit ... я поняття не маю. Вибачте.
[Редагувати: див. Цю відповідь щодо історичних мотивів цього терміну.]
Дрібниці
Хоча, якщо ви хочете, ви можете застосувати статистичні logitдо , probabilitiesщо вийти з softmaxфункції.
Якщо ймовірність певного класу дорівнює p,
то коефіцієнти журналу цього класу є L = logit(p).
Також ймовірність цього класу можна відновити як p = sigmoid(L), використовуючи sigmoidфункцію.
Хоча не дуже корисно для розрахунку коефіцієнтів журналу.