Мотивація сигмоїдних вихідних одиниць у нейронних мережах, починаючи з ненормалізованих ймовірностей журналу, лінійних у


12

Передумови: Я вивчаю розділ 6 «Глибоке навчання» Іона Гудфллоу та Йошуа Бенджо та Аарона Курвіля. У розділі 6.2.2.2 (сторінки 182 з 183, які можна переглянути тут ) використання сигмоїдів для виведення P(y=1|x) мотивовано.

Підсумовуючи частину матеріалу, вони дозволяють

z=wTh+b
бути вихідним нейроном до застосування активації, де h - вихід попереднього прихованого шару, w - вектор ваг, а b - скалярний зміщення. Вхідний вектор позначається x (що h - функція), а вихідне значення позначається y=ϕ(z) де ϕ - сигмоподібна функція. Книга хоче визначити розподіл ймовірностей по y використовуючи значення z. З другого абзацу сторінки 183:

Ми опускаємо на даний момент залежність від x щоб обговорити, як визначити розподіл ймовірностей по y використовуючи значення z . Сигмоїд можна мотивувати, побудувавши ненормалізований розподіл ймовірностей P~(y) , який не дорівнює 1. Потім ми можемо розділити на відповідну константу для отримання дійсного розподілу ймовірності. Якщо ми почнемо з припущення, що ненормалізовані ймовірності журналу є лінійними в y та z , ми можемо експоненціювати для отримання ненормалізованих ймовірностей. Потім нормалізуємо, щоб побачити, що це дає розподіл Бернуллі, керований сигмоїдним перетворенням z:

logP~(y)=yzP~(y)=exp(yz)P(y)=exp(yz)y=01exp(yz)P(y)=ϕ((2y1)z)

Запитання: Мене плутають дві речі, особливо перша:

  1. Звідки походить початкове припущення? Чому ненормалізована ймовірність журналу лінійна в та z ? Чи може хтось подати мені якусь інформацію про те, як автори почали з журналу ˜ P ( y ) = y z ?yzlogP~(y)=yz
  2. Як слідує останній рядок?

Відповіді:


8

Для можливі два результати . Це дуже важливо, оскільки ця властивість змінює значення множення. Можливі два випадки:y{0,1}

logP~(y=1)=zlogP~(y=0)=0

Крім того, важливо зауважити, що ненормалізована логарифмічна ймовірність при є постійною. Ця властивість випливає з основного припущення. Застосування будь-якої детермінованої функції до постійного значення дасть постійний вихід. Ця властивість спростить остаточну формулу, коли ми зробимо нормалізацію за всіма можливими ймовірностями, оскільки нам просто потрібно знати лише ненормалізовану ймовірність для у = 1, а для у = 0 - це завжди константа. А оскільки вихід з мережі з ненормалізованою логарифмічною ймовірністю нам буде потрібно лише один вихід, тому що інший вважається постійним.y=0y=1y=0

Далі ми застосовуємо експоненцію до ненормалізованої ймовірності логарифму, щоб отримати ненормалізовану ймовірність.

P~(y=1)=ezP~(y=0)=e0=1

Далі ми просто нормалізуємо ймовірності, розділивши кожну ненормалізовану ймовірність на суму всіх можливих ненормалізованих ймовірностей.

P(y=1)=ez1+ezP(y=0)=11+ez

Нас цікавить лише , адже саме це означає ймовірність сигмоїдної функції. Отримана функція не схожа на сигмоподібні на перший погляд, але вони рівні і їх легко показати.P(y=1)

P(y=1)=ex1+ex=1ex+1ex=11+1ex=11+ex

Останнє твердження спочатку може бути заплутаним, але це лише спосіб показати, що ця кінцева функція ймовірності - сигмоїда. Значення перетворює 0 в - 1 і 1 в 1 (або можна сказати, що це було б без змін).(2y1)0111

P(y)=σ((2y1)z)={σ(z)=11+ez=ez1+ezwhen y=1σ(z)=11+e(z)=11+ezwhen y=0

Як ми бачимо, це лише спосіб показати співвідношення між і P ( y )σP(y)


"Крім того, важливо помітити, що ненормалізована логарифмічна ймовірність для є постійною. Ця властивість випливає з основного припущення." Припущення полягає в тому, що ми вже вирішили, що y = 1 ? y=0y=1
HBeel

Я думаю, що моя плутанина виникла з того, що сигмоїд дає ймовірність моделі незалежно від фактичної мітки. Дякую! y=1
HBeel

Не майте на увазі бути товстими тут, але як лінійно у y та z . Я б очікував щось із форми a y + b z + c . Я усвідомлюю, що журнал у творі y z дасть суму, яка наблизить мене до лінійності, але це, здається, не є прямим від того, що заявив автор. y×zyzay+bz+clogyz
зебулон

Я бачу, це насправді цікаве питання. Я не звернув уваги на цю заяву, коли читав питання вперше. Зараз це дивно виглядає і для мене. Одна проблема полягає в тому, що y двійкова змінна, і я не впевнений, як перевірити властивості лінійної функції за цих обставин. Я думаю, це буде сенс, якщо ви задасте окремі запитання, можливо, хтось може вам пояснити, чому це написано таким чином.
itdxer

2

Мені також здається, що цей фрагмент книги є складним для наслідування, і вищевказана відповідь itdxer заслуговує на досить багато часу, щоб зрозуміти також того, хто недостатньо добре володіє імовірностями та математичним мисленням. Однак я зробив це, прочитавши відповідь назад, так що почніть з сигмоїди z

P(y=1)=ez1+ez=11+ez

і спробуйте перейти до.

logP~(y)=yz

Тоді є сенс, чому вони почали пояснення з yz - це за конструкцією, як і остаточне

σ((2y1)z)

за побудовою дозволяє отримати -1 для y = 0 і 1 для y = 1, які є єдиними можливими значеннями y при Бернуллі.


0

Ось більш формальне формулювання, яке сподобається тим, хто має мірико-теоретичне походження.

YPYy{0,1}PY(y)=P(Y=y)P~Y

У нас є наступний ланцюжок наслідків:

logP~Y(y)=yzP~Y(y)=exp(yz)PY(y)=eyze0z+e1z=eyz1+ezPY(y)=yez1+ez+(1y)11+ezPY(y)=yσ(z)+(1y)σ(z)PY(y)=σ((2y1)z)

{0,1}{1,1}

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.