Запитання з тегом «neural-networks»

Штучні нейронні мережі (АНН) - це широкий клас обчислювальних моделей, що базуються на біологічних нейронних мережах. Вони охоплюють подачі NN (включаючи "глибокі" NN), звивисті NN, повторювані NN тощо.

2
Прогнозування впевненості нейронної мережі
Припустимо, я хочу навчити глибоку нейронну мережу для класифікації або регресії, але хочу знати, наскільки впевненим буде прогноз. Як я міг цього досягти? Моя ідея - обчислити перехресну ентропію для кожної навчальної дати, виходячи з її прогнозованої ефективності в нейронних метрах вище. Тоді я би тренував другу нейронну мережу для …

2
Вивівши градієнт одношарової нейронної мережі wrt своїх входів, що таке оператор у ланцюговому правилі?
Проблема: Отримайте градієнт щодо вхідного шару для нейронної мережі одного прихованого шару, використовуючи сигмоїд для введення -> прихований, софтмакс для прихованого -> виводу, з поперечною втратою ентропії. Я можу пройти більшу частину виведення, використовуючи правило ланцюга, але я не впевнений, як насправді "з'єднати" їх разом. Визначте деякі позначення r=xW1+b1r=xW1+b1 r …

1
Нормалізація введення для нейронів ReLU
Згідно з "Efficient Backprop" від LeCun et al. (1998), є хорошою практикою нормалізувати всі входи, щоб вони були зосереджені навколо 0 і лежали в межах максимальної другої похідної. Так, наприклад, ми використали [-0,5,0,5] для функції "Tanh". Це допоможе досягти прогресу в просуванні, коли гессея стає стабільнішою. Однак я не був …

1
Неможливо зробити цю мережу автоматичного кодеру належним чином (із згортковими та макспулярними шарами)
Мережі автоматичного кодування здаються набагато складнішими, ніж звичайні MLP-мережі класифікатора. Після декількох спроб використання Lasagne все, що я отримую на реконструйованому виході, - це щось, що в кращому випадку нагадує розмите усереднення всіх зображень бази даних MNIST, не залежно від того, що насправді є вхідною цифрою. Я вибрав структуру мереж …

1
Які відмінності між фільтрами, засвоєними в автоенкодері та конволюційній нейронній мережі?
У CNN ми вивчимо фільтри для створення карти функцій у згортковому шарі. В Autoencoder окрему приховану одиницю кожного шару можна розглядати як фільтр. Яка різниця між фільтрами, вивченими у цих двох мережах?

1
Яких вказівок слід дотримуватися для використання Нейронних мереж із рідким входом
У мене дуже рідкісні входи, наприклад, розташування певних функцій у вхідному зображенні. Далі кожна функція може мати декілька детектувань (не впевнений, чи це матиме відношення до дизайну системи). Це я буду представляти як «двійкове зображення» каналу k із пікселями ON, що представляють наявність цієї функції, і навпаки. Ми можемо бачити, …

2
Динамічно коригування архітектури NN: винайдіть непотрібне?
Я починаю свою докторську подорож, і кінцевою метою, яку я поставив перед собою, є розробка АНН, яка б моніторила середовище, в якому вони працюють, і динамічно підлаштовувала б свою архітектуру до існуючої проблеми. Очевидним наслідком є ​​тимчасовість даних: якщо набір даних не є безперервним і не змінюється з часом, навіщо …

1
Вимірювання кореляції тренованих нейронних мереж
Я треную штучну нейронну мережу (зворотне розповсюдження, подача вперед) з не нормальними розподіленими даними. Окрім помилки середнього середнього квадрату, література часто пропонує коефіцієнт кореляції Пірсона для оцінки якості тренованої сітки. Але чи розумний коефіцієнт кореляції Пірсона, якщо дані про навчання не розподіляються нормально? Чи не було б більш розумним використовувати …

1
Різниця між Naive Bayes і періодичною нейронною мережею (LSTM)
Я хочу провести аналіз настрою на текст, пройшов кілька статей, деякі з них використовують "Naive Bayes", а інші - "Recurrent Neural Network (LSTM)" , з іншого боку я бачив бібліотеку пітонів для аналізу настроїв, які є nltk. Він використовує "Naive Bayes", може хто-небудь пояснити, в чому різниця між використанням цих …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.