Запитання з тегом «deep-learning»

Для питань, пов'язаних з глибоким навчанням, що стосується підмножини методів машинного навчання, заснованих на штучних нейронних мережах (АНН) з декількома прихованими шарами. Прикметник глибокий, таким чином, відноситься до кількості шарів ANN. Вираз глибоке навчання, мабуть, було введено (хоча не в контексті машинного навчання чи АНН) у 1986 році Ріною Дехтер у праці "Навчання під час пошуку проблем-задоволення".

8
Чи знають вчені, що відбувається всередині штучних нейронних мереж?
Чи знають вчені чи дослідники з кухні, що відбувається всередині складної "глибокої" нейромережі, принаймні мільйони з'єднань спрацьовують миттєво? Чи розуміють вони процес, що стоїть за цим (наприклад, що відбувається всередині і як саме воно працює), або це предмет дискусії? Наприклад, це дослідження говорить: Однак немає чіткого розуміння того, чому вони …

3
Як нейронні мережі можуть мати справу з різними розмірами входу?
Наскільки я можу сказати, нейронні мережі мають фіксовану кількість нейронів у вхідному шарі. Якщо нейронні мережі використовуються в такому контексті, як NLP, пропозиції або блоки тексту різної величини подаються в мережу. Яким чином різний розмір входу узгоджується з фіксованим розміром вхідного шару мережі? Іншими словами, наскільки така мережа робиться достатньо …

21
Чи можуть цифрові комп'ютери зрозуміти нескінченність?
Як людина, ми можемо мислити нескінченність. У принципі, якщо у нас є достатньо ресурсів (часу тощо), ми можемо рахувати нескінченно багато речей (включаючи абстрактні, як числа, чи реальні). Наприклад, принаймні, ми можемо враховувати цілі числа. Ми можемо думати, в основному, і «розуміти» нескінченно багато цифр, які відображаються на екрані. Сьогодні …

1
З якої бібліотеки ви б порекомендували почати з глибокого навчання?
Яку бібліотеку (TensorFlow або Keras) ви б рекомендували для першого підходу до глибокого навчання? Я студент з неврології, який вперше намагається обчислити підходи, якщо це має значення.

3
Чому Lisp є такою доброю мовою для ШІ?
Раніше я чув від науковців та дослідників в області ШІ, що Лісп - це гарна мова для досліджень та розробок у сфері штучного інтелекту. Чи все-таки це стосується поширення нейронних мереж та глибокого навчання? Що було для цього їх міркуванням? На яких мовах зараз вбудовані сучасні системи глибокого навчання?

8
Чи має кожен новий фільтр різні ваги для кожного вхідного каналу, чи однакові ваги кожного фільтра використовуються для вхідних каналів?
Я розумію, що згортковий шар конволюційної нейронної мережі має чотири виміри: вхідні_канали, висота фільтра, ширина фільтра, число_фільтрів. Крім того, я розумію, що кожен новий фільтр просто збирається над ВСІМ вхідними каналами (або картами функції / активації з попереднього шару). ВИНАГО, на графіку нижче CS231 показано, що кожен фільтр (червоним кольором) …

9
Чи вразливий штучний інтелект до злому?
У статті Обмеження глибокого навчання в налаштуваннях змагань досліджується, як нейронні мережі можуть бути пошкоджені зловмисником, який може маніпулювати набором даних, з яким тренується нейронна мережа. Експерименти з нейронною мережею мали на меті читати рукописні цифри, підриваючи її здатність до читання, спотворюючи зразки рукописних цифр, з якими навчається нейронна мережа. …

4
Чи можна навчити глибокі мережі для доведення теорем?
Припустимо, що у нас є велика кількість доказів першого предикатного обчислення. Припустимо, у нас є також аксіоми, наслідки та теореми в цій галузі математики. Розглянемо кожне твердження, яке було доведено, та сукупність існуючої теорії, що стосується конкретного пропозиції, як приклад у навчальному наборі та відомий хороший доказ твердження як пов’язані …

6
Яка мета функції активації в нейронних мережах?
Кажуть, що функції активації в нейронних мережах допомагають запровадити нелінійність . Що це означає? Що означає нелінійність у цьому контексті? Як допомагає запровадження цієї нелінійності ? Чи є інші функції функцій активації ?

3
Розуміння функції втрат GAN
Я намагаюся зрозуміти функцію втрат GAN, як це передбачено в розумінні генеративних змагальних мереж (повідомлення в блозі, написане Даніелем Сейтою). У стандартній крос-ентропійній втраті у нас є вихід, який пройшов через сигмоподібну функцію та отриману в результаті бінарну класифікацію. Сієта констатує х1х1x_1 Н( ( х1, у1) , Г ) = …

4
Питання та альтернативи підходам до глибокого навчання?
Протягом останніх 50 років зростання / падіння / зростання популярності нейронних сіток виступало як щось «барометр» для досліджень ШІ. З питань на цьому сайті зрозуміло, що люди зацікавлені у застосуванні глибокого навчання (DL) до найрізноманітніших складних проблем. Тому у мене є два питання: Практикуючі лікарі - які головні перешкоди на …

5
Чи можна нейронну мережу використовувати для прогнозування наступного псевдовипадкового числа?
Чи можна подати нейронну мережу на вихід з генератора випадкових чисел і очікувати, що вона вивчить функцію хешування (або генератора), щоб він міг передбачити, що буде наступним згенерованим псевдовипадковим числом ? Чи щось подібне вже існує? Якщо вже зроблено дослідження цього чи чогось пов’язаного (передбачення псевдовипадкових чисел), чи може хтось …

3
Як обробляти зображення великих розмірів у CNN?
Припустимо, для використання в CNN потрібно використовувати 10К зображень розміром 2400 х 2400. На мій погляд, звичайні комп'ютери, якими користуються люди, будуть корисні. Тепер питання полягає в тому, як обробляти такі великі розміри зображень, де немає привілеїв зменшення розміру. Ось системні вимоги: - Ubuntu 16.04 64-розрядна оперативна пам'ять 16 ГБ …


2
Коли глибоке навчання надмірне навчання?
Наприклад, для класифікації електронних листів як спаму, чи варто - з точки зору часу / точності - застосовувати глибоке навчання (якщо можливо) замість іншого алгоритму машинного навчання? Чи глибоке навчання зробить інші алгоритми машинного навчання, як наївний Байєс, непотрібними?

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.