Запитання з тегом «neural-network»

Штучні нейронні мережі (ANN) складаються з «нейронів» - програмуючих конструкцій, що імітують властивості біологічних нейронів. Набір зважених зв’язків між нейронами дозволяє поширювати інформацію через мережу для вирішення проблем штучного інтелекту, без того, щоб дизайнер мережі мав модель реальної системи.

1
Переформатування даних для глибокого навчання за допомогою Keras
Я початківець з Керасом, і я почав із прикладу MNIST, щоб зрозуміти, як насправді працює бібліотека. Фрагмент коду проблеми MNIST у папці приклад Keras задається як: import numpy as np np.random.seed(1337) # for reproducibility from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Dropout, Activation, Flatten from …

1
Текстова класифікація-проблема: Word2Vec / NN найкращий підхід?
Я хочу створити систему, яка дасть абзац тексту, зможе його класифікувати та визначити контекст: Навчається з генерованих користувачем абзаців тексту (наприклад, коментарі / запитання / відповіді) Кожен предмет навчального набору буде позначений тегом. Так, наприклад ("категорія 1", "текст абзац") Будуть сотні категорій Який найкращий підхід для побудови такої системи? Я …

1
Трансформація автоматичних кодерів
Я щойно прочитав статтю Джеффа Гінтона про перетворення автоінкодерів Хінтон, Крижевський та Ван: Трансформація автокодерів . У галузі штучних нейронних мереж та машинного навчання, 2011. і дуже хотілося б пограти з чимось подібним. Але прочитавши його, я не зміг отримати достатньо деталей із статті про те, як я міг би …

2
Як AI навчитися діяти, коли проблемний простір занадто великий
Я найкраще навчаюся через експерименти та приклад. Я дізнаюся про нейронні мережі і маю (те, що мені здається) - досить добре розуміє класифікацію та регресію, а також кероване та непідконтрольне навчання, але я натрапив на щось, про що я не можу зауважити; Якби я хотів навчити ШІ грати в складну …

5
LSTM або інший пакет RNN для R
Я побачив вражаючий результат від моделей LSTM, що створюють тексти, подібні Шекспіру. Мені було цікаво, чи існує пакет LSTM для R. Я за ним гуглив, але знаходив лише пакети для Python та Julia. (можливо, є якась проблема продуктивності, яка пояснює, чому ці програми є більш переважними перед R). Чи знаєте …
10 r  neural-network  rnn 

2
Прогнозування валютного ринку за допомогою нейронних мереж
Я хотів би використовувати ANN для автоматизації торгівлі валютами, переважно USD / EUR або USD / GBP. Я знаю, що це важко і може бути не просто. Я вже читав деякі документи і робив кілька експериментів, але без особливої ​​долі. Я хотів би отримати поради від ЕКСПЕРТІВ, щоб зробити цю …

4
Виявлення споживання газів - проект нейронної мережі. Погані результати
Я намагався виявити людей, що споживають енергію в споживання енергії деяких голландських будівель, будуючи модель нейронної мережі. У мене дуже погані результати, але я не можу знайти причину. Я не експерт, тому хотів би запитати у вас, що я можу вдосконалити і що я роблю неправильно. Це повний опис: https://github.com/denadai2/Gas-consumption-outliers …

2
Які відмінності між Convolutional1D, Convolutional2D та Convolutional3D?
Я дізнався про конволюційні нейронні мережі. Переглядаючи Kerasприклади, я натрапив на три різні методи згортки. А саме, 1D, 2D та 3D. Які відмінності між цими трьома шарами? Які випадки їх використання? Чи є посилання чи посилання, які показують випадки їх використання?

2
Яка матриця функцій у word2vec?
Я початківець у нейромережах, і зараз вивчаю модель word2vec. Однак у мене важкий час, щоб зрозуміти, що саме являє собою матриця функцій. Я можу зрозуміти, що перша матриця - це гарячий вектор кодування для даного слова, але що означає друга матриця? Більш конкретно, що означає кожне з цих значень (тобто …

1
Чому TensorFlow не може підходити до простої лінійної моделі, якщо я мінімізую абсолютну середню помилку замість середньої помилки у квадраті?
У Вступі я щойно змінився loss = tf.reduce_mean(tf.square(y - y_data)) до loss = tf.reduce_mean(tf.abs(y - y_data)) і модель не в змозі дізнатись, з часом збитки тільки зростали. Чому?

2
Як нормалізувати дані для нейронної мережі та лісу рішень
У мене є набір даних з 20000 зразків, кожен має 12 різних функцій. Кожен зразок або в категорії 0, або 1. Я хочу навчити нейронну мережу та ліс прийняття рішень класифікувати зразки, щоб я міг порівняти результати та обидві методи. Перше, на що я натрапив - це належна нормалізація даних. …

1
ЯК: глибока ініціалізація ваги нейронної мережі
Враховуючи складне навчальне завдання (наприклад, велика розмірність, властива їм складність даних) Глибокі нейронні мережі важко піддаються навчанню . Щоб полегшити багато проблем, можна: Нормалізуйте дані про якість & & handpick вибрати інший алгоритм навчання (наприклад, RMSprop замість Gradient Descent) вибрати більш круту градієнтну вартість вартості (наприклад, перехресна ентропія замість MSE) …

1
Наскільки гнучким є зв’язок між цільовою функцією та функцією активації вихідного шару?
Здається, що у багатьох пакетах нейронної мережі стандартне поєднання цільової функції мінімізується з функцією активації у вихідному шарі. Наприклад, для лінійного вихідного шару, що використовується для регресії, стандартно (і часто це лише вибір) мати функцію об'єктивної помилки. Ще одне звичайне сполучення - це логістичний вихід та втрата журналу (або перехресна …

1
Як я обчислюю дельта-термін згорткового шару, враховуючи дельта-умови і ваги попереднього згорткового шару?
Я намагаюся тренувати штучну нейронну мережу з двома звивистими шарами (c1, c2) та двома прихованими шарами (c1, c2). Я використовую стандартний підхід для розмноження. У зворотному проході я обчислюю термін помилки шару (дельта) на основі похибки попереднього шару, ваги попереднього шару та градієнта активації щодо функції активації поточного шару. Більш …

2
Налагодження нейронних мереж
Я створив штучну нейронну мережу в python, використовуючи функцію оптимізації scipy.optimize.minimize (Conjugate gradient). Я здійснив перевірку градієнта, двічі перевірив все тощо, і я впевнений, що він працює правильно. Я запускав його кілька разів, і він досягає "Оптимізація успішно припиняється", але коли я збільшую кількість прихованих шарів, вартість гіпотези збільшується (все …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.