Зокрема, я думаю, мені цікаво таке твердження:
Майбутні основні версії TensorFlow дозволять градієнтам потрапляти в мітки, що вводяться на задній панелі, за замовчуванням.
Що відображається при використанні tf.nn.softmax_cross_entropy_with_logits
. У цьому ж повідомленні він закликає мене подивитися tf.nn.softmax_cross_entropy_with_logits_v2
. Я переглянув документацію, але в ній вказано лише, що для tf.nn.softmax_cross_entropy_with_logits_v2
:
Зворотне розповсюдження відбуватиметься як у логітах, так і в мітках. Щоб заборонити повторне розповсюдження на мітках, пропустіть тензори міток через stop_gradients перед подачею на цю функцію.
на відміну від tf.nn.softmax_cross_entropy_with_logits
:
Зворотне розповсюдження відбуватиметься лише в логітах.
Будучи дуже новими в цій темі (я намагаюся пробитися через основні навчальні посібники), ці твердження не дуже зрозумілі. Я неглибоко розумію зворозне розповсюдження, але що насправді означає попереднє твердження? Як пов’язані розмноження та мітки? І як це змінюється, як я працюю, на tf.nn.softmax_cross_entropy_with_logits_v2
відміну від оригіналу?
softmax_..._with_logits_v2
працюватимуть якsoftmax_with_logits
? (Або я можу використовувати tf.stop_gradient для змінної міток.)