Запитання з тегом «neural-networks»

Штучні нейронні мережі (АНН) - це широкий клас обчислювальних моделей, що базуються на біологічних нейронних мережах. Вони охоплюють подачі NN (включаючи "глибокі" NN), звивисті NN, повторювані NN тощо.

2
Підвищення нейронних мереж
Нещодавно я працював над вивченням алгоритмів прискорення, таких як adaboost, gradient boost, і я знав той факт, що найпоширенішими слабовживаними є дерева. Мені дуже хочеться знати, чи є кілька останніх успішних прикладів (я маю на увазі деякі статті чи статті) для використання нейронних мереж як базового учня.

3
Від правила Perceptron до градієнтного походження: чим відрізняються перцептрони з сигмоїдною активаційною функцією від логістичної регресії?
По суті, моє питання полягає в тому, що в багатошарових перцептронах персептрони використовуються з функцією активації сигмоїдів. Так що в правилі поновлення у обчислюється якy^y^\hat{y} y^=11+exp(−wTxi)y^=11+exp⁡(−wTxi)\hat{y} = \frac{1}{1+\exp(-\mathbf{w}^T\mathbf{x}_i)} Чим цей «сигмоїдний» Перцепцепрон відрізняється від логістичної регресії тоді? Я б сказав , що одношаровий персептрон сигмовидної еквівалентно логістичної регресії в тому …

2
Конволюційна нейронна мережа для часових рядів?
Мені хотілося б знати, чи існує код для підготовки звивистої нейронної мережі для класифікації часових рядів. Я бачив декілька останніх робіт ( http://www.fer.unizg.hr/_download/repository/KDI-Djalto.pdf ), але я не впевнений, чи існує щось, чи я маю це кодувати самостійно.

5
Причина не зменшення терміну упередженості (перехоплення) в регресії
Для лінійної моделі , термін усадки завжди .P ( β )y=β0+xβ+εy=β0+xβ+εy=\beta_0+x\beta+\varepsilonP(β)P(β)P(\beta) Що є причиною того, що ми не скорочуємо термін упередження (перехоплення) ? Чи варто скорочувати термін зміщення в моделях нейронної мережі?β0β0\beta_0

5
Сучасні нейронні мережі, що будують власну топологію
Обмеженнями стандартних алгоритмів нейронної сітки (як backprop) є те, що вам потрібно прийняти проектне рішення про те, скільки прихованих шарів та нейронів на шар вам потрібно. Зазвичай рівень навчання та узагальнення є дуже чутливим до цих варіантів. Це стало причиною того, чому алгоритми нейронної сітки, такі як каскадна кореляція , …

5
Як зробити свою нейронну мережу кращою при прогнозуванні синусоїд?
Ось подивіться: Ви можете точно бачити, де закінчуються дані тренувань. Дані про навчання проходять від до .−1−1-1111 Я використовував Keras і щільну мережу 1-100-100-2 з активацією tanh. Я обчислюю результат з двох значень, p і q як p / q. Таким чином я можу отримати будь-який розмір числа, використовуючи лише …

3
Втрати в навчанні збільшуються з часом [дублікат]
На це питання вже є відповіді : Як зміни у вартості можуть бути позитивними? (1 відповідь) Що робити, коли моя нервова мережа не навчається? (5 відповідей) Закрито минулого місяця . Я треную модель (періодична нейронна мережа) для класифікації 4 типів послідовностей. Коли я проходжу тренування, я бачу, що втрата тренувань …

2
Які переваги використання ReLU над softplus як функції активації?
Часто згадується, що випрямлені лінійні одиниці (ReLU) витіснили одиниці softplus, оскільки вони лінійні та швидші для обчислення. Чи є у softplus все-таки перевага, що викликає розрідженість, або це обмежено для ReLU? Причина, яку я запитую, це те, що я цікавлюсь негативними наслідками нульового схилу ReLU. Хіба ця властивість не «захоплює» …

2
Як і чому "Нормалізація партії" використовує рухомі середні значення для відстеження точності моделі під час тренування?
Я читав папір для нормалізації партії (BN) (1) і не розумів необхідності використання ковзаючих середніх для відстеження точності моделі, і навіть якщо я визнав, що це правильно зробити, я не розумію що саме вони роблять. Наскільки я розумію (що я помиляюся), у статті йдеться про те, що вона використовує статистику …

2
Чому для обчислення ймовірностей використовується функція softmax, хоча ми можемо розділити кожне значення на суму вектора?
Застосування функції softmax на вектор призведе до "ймовірностей" і значень між і . 000111 Але ми також можемо розділити кожне значення на суму вектора, що призведе до ймовірностей і значень між і .000111 Я читаю відповідь тут, але в ній сказано, що причина полягає в тому, що вона відрізняється, хоча …

2
Яка різниця між ініціалізатором масштабності дисперсії та ініціалізатором xavier?
Під час впровадження ResNet Tensorflow я вважаю, що вони використовують ініціалізатор дисперсійного масштабування, а також ініціалізатор xavier є популярним. Я не маю надто багато досвіду щодо цього, що краще на практиці?

1
Від Байєсівських мереж до Нейронних мереж: як багатоваріантну регресію можна перенести в мережу з декількома виходами
Я маю справу з Баєсовою ієрархічною лінійною моделлю , тут мережа описує її. YYY являє собою щоденний продаж товару в супермаркеті (спостерігається). ХXX - відома матриця регресорів, що включає ціни, акції, день тижня, погоду, свята. 1SSS - невідомий латентний рівень запасів кожного товару, який викликає найбільшу кількість проблем і який …

4
Кодування даних кутових даних для нейронної мережі
Я треную нейронну мережу (деталі не важливі), де цільові дані - вектор кутів (між 0 і 2 * пі). Я шукаю поради щодо кодування цих даних. Ось що я зараз намагаюся (з обмеженим успіхом): 1) Кодування 1-С: Я розбиваю задані можливі кути на 1000 або близько дискретних кутів, а потім …

1
Як налаштувати нейронну мережу для виведення порядкових даних?
У мене створена нейронна мережа, щоб передбачити щось, де вихідна змінна є порядковою. Я опишу нижче, використовуючи три можливі виходи A <B <C. Цілком очевидно, як використовувати нейронну мережу для виведення категоричних даних: вихід - це лише програмна макс останнього (зазвичай повністю підключеного) шару, по одному на категорію, а передбачувана …

3
Як правильно використовувати ранню зупинку для тренування глибокої нейронної мережі?
У мене є модель глибокої нейронної мережі, і мені потрібно навчити її на моєму наборі даних, який складається з приблизно 100 000 прикладів, мої дані перевірки містять близько 1000 прикладів. Оскільки для навчання кожного прикладу потрібен час (приблизно 0,5 секунди для кожного прикладу) і щоб уникнути перенапруження, я хотів би …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.