Запитання з тегом «perceptron»

6
Яка різниця між логістичною регресією та перцептроном?
Я збираюся через лекцію Ендрю Нг ноту на Machine Learning. Примітки вводять нас у логістичну регресію, а потім у перцептрон. Описуючи Perceptron, примітки кажуть, що ми просто змінюємо визначення порогової функції, що використовується для логістичної регресії. Після цього ми можемо використовувати модель Персептрона для класифікації. Отже, моє запитання - якщо …

3
Від правила Perceptron до градієнтного походження: чим відрізняються перцептрони з сигмоїдною активаційною функцією від логістичної регресії?
По суті, моє питання полягає в тому, що в багатошарових перцептронах персептрони використовуються з функцією активації сигмоїдів. Так що в правилі поновлення у обчислюється якy^y^\hat{y} y^=11+exp(−wTxi)y^=11+exp⁡(−wTxi)\hat{y} = \frac{1}{1+\exp(-\mathbf{w}^T\mathbf{x}_i)} Чим цей «сигмоїдний» Перцепцепрон відрізняється від логістичної регресії тоді? Я б сказав , що одношаровий персептрон сигмовидної еквівалентно логістичної регресії в тому …

3
Багатошаровий перцептрон проти глибокої нейронної мережі
Це питання термінології. Іноді я бачу, як люди посилаються на глибокі нейронні мережі як "багатошарові перцептрони", чому це так? Перцептрон, як мене вчили, - це одношаровий класифікатор (або регресор) з двійковим пороговим виходом, використовуючи певний спосіб тренування ваг (а не зворотній опор). Якщо вихід перцептрона не відповідає цільовому виходу, ми …

1
Роз'яснення щодо правила Perceptron vs. Gradient Descent проти Stohastic Gradient Descent
Я трохи експериментував з різними реалізаціями Perceptron і хочу переконатися, чи правильно я розумію "ітерації". Первісне правило персептрона Розенблатта Наскільки я розумію, в класичному алгоритмі Розенблатта ваги одночасно оновлюються після кожного прикладу тренувань через Δw(t+1)=Δw(t)+η(target−actual)xiΔw(t+1)=Δw(t)+η(target−actual)xi\Delta{w}^{(t+1)} = \Delta{w}^{(t)} + \eta(target - actual)x_i де - це правило навчання. І цільове, і фактичне …


2
Гранічний графік рішення для перцептрона
Я намагаюся побудувати межу рішення алгоритму перцептрона, і я дуже заплутаний у кількох речах. Мої вхідні екземпляри мають форму , в основному 2D вхідний екземпляр ( і ) і цільове значення двійкового класу ( ) [1 або 0].х 1 х 2 у[ ( х1, х2) , у][(x1,x2),y][(x_{1},x_{2}), y]х1x1x_{1}х2x2x_{2}уyy Звідси мій …

1
Як кернелізувати простий перцептрон?
Задачі класифікації з нелінійними межами не можуть бути вирішені простим перцептроном . Наступний код R має ілюстративні цілі та заснований на цьому прикладі в Python): nonlin <- function(x, deriv = F) { if (deriv) x*(1-x) else 1/(1+exp(-x)) } X <- matrix(c(-3,1, -2,1, -1,1, 0,1, 1,1, 2,1, 3,1), ncol=2, byrow=T) y …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.