Запитання з тегом «neural-networks»

Штучні нейронні мережі (АНН) - це широкий клас обчислювальних моделей, що базуються на біологічних нейронних мережах. Вони охоплюють подачі NN (включаючи "глибокі" NN), звивисті NN, повторювані NN тощо.

2
Як ініціалізувати елементи матриці фільтра?
Я намагаюся краще зрозуміти конволюційні нейронні мережі краще, записуючи код Python, який не залежить від бібліотек (наприклад, Convnet або TensorFlow), і я застрягаю в літературі про те, як вибрати значення для матриці ядра, коли виконання згортки на зображенні. Я намагаюся зрозуміти деталі реалізації на кроці між картами функцій на зображенні …

1
Як інтерпретується гістограми, подані TensorFlow в TensorBoard?
Нещодавно я бігав і вивчав тензорний потік і отримав кілька гістограм, які не знав, як інтерпретувати. Зазвичай я вважаю висоту брусків як частоту (або відносну частоту / рахунки). Однак мене не бентежить той факт, що немає барів, як у звичайній гістограмі, і той факт, що речі затінені. також здається, що …

1
Керасе, як працює рівень зниження рівня SGD?
Якщо ви подивитеся на документацію http://keras.io/optimizers/, в SGD є параметр для розпаду. Я знаю, що з часом знижується швидкість навчання. Однак я не можу зрозуміти, як саме це працює. Чи є це значення, помножене на ступінь навчання, наскільки lr = lr * (1 - decay) це експоненціальне? Також як я …

2
Чи можемо ми використовувати MLE для оцінки ваги нейронної мережі?
Я тільки почав вивчати інформацію про статистику та моделі. В даний час я розумію, що ми використовуємо MLE для оцінки найкращих параметрів для моделі. Однак, коли я намагаюся зрозуміти, як працюють нейронні мережі, здається, що вони зазвичай використовують інший підхід для оцінки параметрів. Чому ми не використовуємо MLE або взагалі …

3
Яка архітектура складеного згорткового автокодера?
Тому я намагаюся провести пошук зображень людей за допомогою звивистих сіток. Я читав документи ( Paper1 і Paper2 ) і цю посилання StackOverflow , але я не впевнений , я розумію структуру мережі (вона не визначена в роботах). Запитання: Я можу мати свій вхід, після якого проходить шар шуму, а …

3
Чи впливає формат зображення (png, jpg, gif) на те, як тренується нейронна мережа розпізнавання зображень?
Я знаю, що було досягнуто великого прогресу щодо розпізнавання зображень, класифікації зображень тощо з глибокими, згорнутими нейронними сітками. Але якщо я треную мережу на, скажімо, зображеннях PNG, чи буде вона працювати лише для таких закодованих зображень? Які інші властивості зображення впливають на це? (альфа-канал, переплетення, роздільна здатність тощо?)

1
Чому функція витрат нейронних мереж не випукла?
Тут є подібна нитка ( Функція вартості нейронної мережі не випукла? ), Але я не зміг зрозуміти моменти у відповідях там, і моя причина знову запитати, сподіваючись, що це прояснить деякі проблеми: Якщо я використовую функцію вартості різниці у квадраті, я в кінцевому підсумку оптимізую щось із вигляду де - …

1
Поширення градієнта через пропускні з'єднання ResNet
Мені цікаво, як градієнти розповсюджуються назад через нейронну мережу за допомогою модулів ResNet / пропускають з'єднання. Я бачив кілька запитань щодо ResNet (наприклад, нейромережа зі зв’язками пропускового шару ), але це запитує конкретно про зворотне поширення градієнтів під час тренування. Основна архітектура тут: Я читаю цю статтю « Вивчення залишкових …

3
Relu vs Sigmoid vs Softmax як нейрони прихованого шару
Я грав у простій Нейронній мережі з лише одним прихованим шаром, від Tensorflow, і тоді я спробував різні активації для прихованого шару: Relu Сигмоїдний Softmax (ну зазвичай softmax використовується в останньому шарі ..) Relu забезпечує найкращу точність поїздів та точність перевірки. Я не впевнений, як це пояснити. Ми знаємо, що …

3
Навіщо використовувати спуск градієнта з нейронними мережами?
Під час тренування нейронної мережі з використанням алгоритму зворотного розповсюдження використовується метод градієнтного спуску для визначення оновлень ваги. Моє запитання: Замість того, щоб використовувати метод градієнтного спуску, щоб повільно знаходити мінімальну точку щодо певної ваги, чому ми не просто встановимо похідну , і знайти значення вагиw,яке мінімізує помилку?d(Error)dw=0d(Error)dw=0\frac{d(\text{Error})}{dw}=0www Крім того, …


2
Машини Больцмана з обмеженою частотою проти багатошарових нейронних мереж
Я хотів експериментувати з нейронною мережею щодо проблеми класифікації, з якою я стикаюся. Я зіткнувся з паперами, які розповідають про УЗМ. Але від того, що я можу зрозуміти, вони нічим не відрізняються від наявності багатошарової нейронної мережі. Це точно? Більше того, я працюю з R і не бачу жодних консервованих …

9
Як визначити впевненість прогнозу нейронної мережі?
Щоб проілюструвати моє запитання, припустимо, що у мене є навчальний набір, де вхід має ступінь шуму, але вихід, наприклад, не має; # Training data [1.02, 1.95, 2.01, 3.06] : [1.0] [2.03, 4.11, 5.92, 8.00] : [2.0] [10.01, 11.02, 11.96, 12.04] : [1.0] [2.99, 6.06, 9.01, 12.10] : [3.0] тут вихід …

3
Що таке попередня підготовка нейронної мережі?
Ну питання все це говорить. Що означає "попередня підготовка нейронної мережі"? Чи може хтось пояснити чистою простою англійською мовою? Я не можу знайти жодні ресурси, пов'язані з цим. Було б чудово, якби хтось міг вказати мені на них.

2
Машина Больцмана з обмеженими можливостями: як вона використовується в машинному навчанні?
Фон: Так, для обмеження ваг нейронної мережі МОЖЕ бути використана обмежена машина Больцмана (БРМ). Також його можна використовувати "пошарово" шляхом побудови глибокої мережі вірування (тобто тренування -го шару на верхньому ( n - 1 ) -го шару, а потім для підготовки -й шар у верхній частині -го шару, промийте і …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.