Хороший підручник для обмежених машин Больцмана (УЗМ)


10

Я вивчаю обмежену машину Больцмана (RBM) і у мене виникають проблеми з розумінням обчислень вірогідності журналу щодо параметрів МП. Незважаючи на те, що було опубліковано багато науково-дослідних робіт щодо УЗМ, детальних кроків похідних даних немає. Після пошуку в Інтернеті я зміг їх знайти в цьому документі:

  • Фішер, А., Ігель, C. (2012). Вступ до обмежених машин Больцмана. У Л. Альварес та ін. (Ред.): CIARP, LNCS 7441, pp. 14–36, Springer-Verlag: Берлін-Гейдельберг. ( pdf )

Однак деталі цього документа для мене занадто просунуті. Чи може хтось вказати мені на гарний підручник / набір конспектів лекцій про УЗМ?


Редагувати: @David, заплутаний розділ показаний нижче (рівняння 29 на сторінці 26):

lnL(θ|v)wij=hp(h|v)E(v,h)wij+v,hp(v,h)E(v,h)wij=hp(h|v)hivjvp(v)hp(h|v)hivj(29)=p(Hi=1|v)vjvp(v)p(Hi=1|v)vj.

Чи можете ви бути більш конкретними щодо того, які кроки вас бентежать?
Девід Дж. Харріс

1
добре читайте - розділ 5 вивчення глибоких архітектур для AI ( iro.umontreal.ca/~bengioy/papers/ftml_book.pdf )
dksahuji

@dksahuji дякую за INFO, також проф: Бенджіо пише DL, а первинний проект доступний за адресою iro.umontreal.ca/~bengioy/dlbook
Upul

У цьому підручнику є пояснення з математики RBM ( Навчальний посібник з обмеженими машинами Больцмана ).
Цзян Сян

Відповіді:


7

Я знаю, що це трохи пізно, але, можливо, це допомагає. Щоб отримати перший додаток вашого рівняння, виконайте такі дії: Ми припустили, що умовна незалежність між приховані одиниці, з огляду на видимі одиниці, існують. Таким чином, ми можемо факторизувати умовний спільний розподіл ймовірностей для прихованих станів.

hp(h|v)hivj=vjh1...hi...hnp(h1,...,hi,...hn|v)hi=vjhih_ip(hi,h_i|v)hi
=vjhih_ip(hi|v)hip(h_i|v)=vjhip(hi|v)hih_ip(h_i|v)
Останній член дорівнює , оскільки ми підсумовуємо всі стани. Таким чином, те, що залишилося, - це перший термін. Оскільки приймає лише стани і ми закінчуємо: 1hi10
=vjp(Hi=1|v)

7
  1. На сайті поглиблення є гідний підручник з УЗМ .

  2. Ця публікація в блозі ( Вступ до обмежених машин Больцмана ) написана більш простою мовою і дуже добре пояснює основи RBMS:

  3. Також, можливо, найкращим посиланням є курс Нейронних мереж Джеффа Гінтона на Курсі:

    Я не впевнений, чи можете ви отримати доступ до класу та відео після закінчення уроку.


2
Ще є люди, які підписуються на клас Coursera та публікують на форумі. Ви все ще можете побачити всі лекції та отримати доступ до всіх вікторин та завдань програмування (серед вікторин). Ця інформація буде ймовірно, поки курс не буде запропонований знову. Я рекомендую записатись на курс просто для перегляду чи завантаження матеріалу.
Дуглас Заре

1

Ліве помаранчеве поле дає очікуване значення градієнта енергії для всіх прихованих конфігурацій, враховуючи, що деякий видимий вектор затиснутий на видимих ​​одиницях (очікування над даними, оскільки він використовує зразок з вашого навчального набору). Сам термін є добутком (1) ймовірності побачити конкретну приховану одиницю i з огляду на те, що деякий вектор v затиснутий на видимих ​​одиницях і (2) стан певної видимої одиниці j.

Правий помаранчевий ящик - це те саме, що і лівий, за винятком того, що ви робите те, що знаходиться в лівому оранжевому полі для кожної можливої ​​видимої конфігурації, а не лише ту, яка затиснута на видимих ​​одиницях (очікування щодо моделі, оскільки нічого не затискається на видимих ​​одиницях).


1

Глава 5 курсу курсу Уго Ларошелла про машинне навчання ( відео ) - найкраще вступ, що я знайшов досі.

Похідна від функції втрат не виводиться в цих лекціях, але це не важко зробити (я можу розмістити сканування своїх розрахунків, якщо це потрібно, але це дійсно не так складно). Я все ще шукаю гарний підручник, що висвітлює цю тему, але в основному є лише статті. Існує хороший огляд статей у главі 20 книги « Глибоке навчання Бенджіо» .

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.