Запитання з тегом «neural-network»

Мережева структура натхненна спрощеними моделями біологічних нейронів (клітини мозку). Нейронні мережі навчаються "навчатися" під контрольованими та непідконтрольними методами, і їх можна використовувати для вирішення задач оптимізації, проблем наближення, класифікації шаблонів та їх комбінацій.

5
Що робить tf.nn.conv2d в tensorflow?
Я дивився на документи тензорфлоу tf.nn.conv2d тут . Але я не можу зрозуміти, що це робить або чого намагається досягти. На документах написано, №1: Вирівняє фільтр до двовимірної матриці з формою [filter_height * filter_width * in_channels, output_channels]. Тепер що це робить? Це мультиплікаційне множення чи просто множення матриці? Я також …

9
Замовлення нормалізації та випадання партії?
Первісне питання стосувалося конкретно реалізацій TensorFlow. Однак відповіді стосуються загальної реалізації. Ця загальна відповідь також є правильною відповіддю для TensorFlow. Якщо ви використовуєте нормалізацію партії та випадання в TensorFlow (зокрема, використовуючи contrib.layers), чи потрібно турбуватися про замовлення? Мабуть, можливо, якщо я використаю випадання з подальшим негайно нормалізацією партії, можуть виникнути …

4
Аргумент Шенсових тенів
Я намагаюся зрозуміти аргумент кроків у tf.nn.avg_pool, tf.nn.max_pool, tf.nn.conv2d. Документація неодноразово говорить кроки: Список вкладок, що має довжину> = 4. Хід ковзаючого вікна для кожного виміру вхідного тензора. Мої запитання: Що представляють кожне з 4+ цілих чисел? Чому вони повинні мати кроки [0] = кроки [3] = 1 для конвентів? …

4
Піторх, які градієнтні аргументи
Я читав документацію PyTorch і знайшов приклад, де вони пишуть gradients = torch.FloatTensor([0.1, 1.0, 0.0001]) y.backward(gradients) print(x.grad) де x була початковою змінною, з якої побудований y (3-вектор). Питання в тому, які аргументи тензора градієнтів 0,1, 1,0 та 0,0001? Документація щодо цього не дуже зрозуміла.


3
Яка різниця між sparse_softmax_cross_entropy_with_logits та softmax_cross_entropy_with_logits?
Нещодавно я натрапив на tf.nn.sparse_softmax_cross_entropy_with_logits і не можу зрозуміти, у чому різниця порівняно з tf.nn.softmax_cross_entropy_with_logits . Єдина відмінність у тому, що навчальні вектори yповинні бути кодировані гарячими при використанні sparse_softmax_cross_entropy_with_logits? Читаючи API, я не зміг знайти жодної іншої різниці порівняно з softmax_cross_entropy_with_logits. Але навіщо нам тоді потрібна додаткова функція? Чи …

16
Які хороші ресурси для вивчення штучних нейронних мереж? [зачинено]
Зачинено. Це питання не відповідає вказівкам щодо переповнення стека . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для переповнення стека. Закрито 6 років тому . Удосконаліть це питання Мені дуже цікаві штучні нейронні мережі, але я шукаю місце для початку. Які ресурси там …

2
Багато в одному і багато-багато прикладів LSTM в Керасі
Я намагаюся зрозуміти LSTM і як їх побудувати за допомогою Кераса. Я з'ясував, що в основному є 4 режими для запуску RNN (4 правильних на малюнку) Джерело зображення: Андрій Карпатій Тепер мені цікаво, як виглядав би мінімалістичний фрагмент коду для кожного з них у Keras. Так щось на кшталт model …

5
Яка роль "Flatten" у Кераса?
Я намагаюся зрозуміти роль Flattenфункції у Кераса. Нижче мій код, який представляє собою просту двошарову мережу. Він бере двовимірні дані форми (3, 2) і виводить одновимірні дані форми (1, 4): model = Sequential() model.add(Dense(16, input_shape=(3, 2))) model.add(Activation('relu')) model.add(Flatten()) model.add(Dense(4)) model.compile(loss='mean_squared_error', optimizer='SGD') x = np.array([[[1, 2], [3, 4], [5, 6]]]) y …


9
Чому слід зважувати нейромережі до випадкових чисел? [зачинено]
Зачинено. Це питання не відповідає вказівкам щодо переповнення стека . Наразі відповіді не приймаються. Хочете вдосконалити це питання? Оновіть питання, щоб воно було тематичним для переповнення стека. Закрито вчора . Удосконаліть це питання Я намагаюся побудувати нейромережу з нуля. По всій літературі про ІС існує єдиний висновок про те, що …

4
багатошарова персептронна архітектура (MLP): критерії вибору кількості прихованих шарів та розміру прихованого шару?
Якщо у нас є 10 власних векторів, у нас може бути 10 нейронних вузлів у вхідному шарі. Якщо у нас є 5 вихідних класів, то у вихідного шару ми можемо мати 5 вузлів. Але які критерії вибору кількості прихованого шару в MLP і скільки нейронних вузли в 1 прихованому шарі?

6
Завантажте треновану модель Keras і продовжуйте тренування
Мені було цікаво, чи можливо зберегти частково навчену модель Keras і продовжити навчання після завантаження моделі знову. Причиною цього є те, що в майбутньому у мене буде більше навчальних даних, і я не хочу перекваліфікувати всю модель знову. Я використовую такі функції: #Partly train model model.fit(first_training, first_classes, batch_size=32, nb_epoch=20) #Save …

3
Як об’єднати два шари в керах?
У мене є приклад нейронної мережі з двома шарами. Перший шар приймає два аргументи і має один вихід. Другий повинен приймати один аргумент як результат першого шару і один додатковий аргумент. Це повинно виглядати так: x1 x2 x3 \ / / y1 / \ / y2 Отже, я створив модель …

10
Як додати регуляризації в TensorFlow?
У багатьох доступних кодах нейронної мережі, реалізованих за допомогою TensorFlow, я виявив, що умови регуляризації часто реалізуються вручну, додаючи додатковий термін до вартості втрат. Мої запитання: Чи є більш елегантний або рекомендований спосіб регуляризації, ніж робити це вручну? Я також вважаю, що get_variableтут є аргумент regularizer. Як його використовувати? Згідно …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.