Я намагаюся зробити математичний зв’язок між нейронною мережею та графічною моделлю.
У графічних моделях ідея проста: розподіл ймовірностей розподіляється відповідно до кліків на графіку, при цьому потенціали, як правило, належать до експоненціальної родини.
Чи існує рівнозначне міркування для нейронної мережі? Чи можна виразити розподіл ймовірності над одиницями (змінними) в машині з обмеженим набором Больцмана або CNN як функцію їх енергії, або добуток енергій між одиницями?
Також моделюється розподіл ймовірностей мережею RBM або глибокою вірою (наприклад, із CNN) родини експонентів?
Я сподіваюся знайти текст, який формалізує зв'язок між цими сучасними типами нейронних мереж та статистикою так само, як Джордан і Уейнрайт зробили для графічних моделей зі своїми графічними моделями, експонентними сім'ями та варіаційними висновками . Будь-які покажчики були б чудовими.
"using deep nets as factors in an MRF"
), а в тому, як дивитися на глибоку сітку як на вірогідний факторний графік. Коли говорить Янн Лекун "of course deep Boltzmann Machines are a form of probabilistic factor graph themselves"
, мені цікаво бачити цей зв'язок математично.
https://distill.pub/2017/feature-visualization/
( як нейронні мережі формують своє розуміння зображень ), оскільки складне зображення містить компоненти об'єктів, представлені прихованими вузлами шару. Ваги можуть "змінювати" "топологію" недискретно. Хоча я цього не бачив, деякі методи можуть включати фактори усадки для видалення країв і, отже, змінити початкову топологію