Цю публікацію багато оновлювали. Угорі ви можете побачити оновлення посилань. Нижче наведено варіанти початкової відповіді. Для короткої версії: успіхи конволюційних нейронних мереж та глибоке навчання виглядають як свого роду Галілейська революція. З практичної точки зору, класична обробка сигналів або комп’ютерний зір мертві ... за умови, що у вас є достатньо мічених даних, мало дбайте про очевидні збої в класифікації ( глибокі недоліки ), не маєте нескінченної енергії для проведення тестів, не замислюючись про викиди вуглецю , і не турбуйте раціональні пояснення. Для інших, це змусило нас переглянути про все , що ми робили раніше: виділення ознак, оптимізація (див мого колеги Ж.-К. Pesquet роботи над Deep Neural Мережевих структурами рішення варіаційних нерівностей), інваріантність, кількісна оцінка тощо. І з цього випливає справді цікаве дослідження, яке, сподіваємось, наздогнало твердо обґрунтовані принципи та подібну ефективність.
Оновлені посилання:
Ми представляємо природні змагальні приклади - реальні, немодифіковані та природні приклади, які призводять до значної погіршення точності класифікатора. Ми підкреслимо 7500 природних змагальних прикладів і випустимо їх у тестовий набір класифікаторів ImageNet, який ми називаємо ImageNet-A. Цей набір даних служить новим способом вимірювання стійкості класифікатора. Як і змагальні приклади l_p, приклади ImageNet-A успішно переносяться на невидимі або класичні класи. Наприклад, на ImageNet-A a DenseNet-121 отримує близько 2% точності, зниження точності приблизно 90%. Відновити цю точність непросто, оскільки приклади ImageNet-A використовують глибокі недоліки в поточних класифікаторах, включаючи їх надмірну залежність від кольорових, фактурних та фонових сигналів. Ми зауважуємо, що популярні методи тренувань для підвищення стійкості мають незначний ефект, але ми показуємо, що деякі архітектурні зміни можуть посилити стійкість до природних змагальних прикладів. Необхідні майбутні дослідження для забезпечення надійного узагальнення цього жорсткого тестового набору ImageNet.
- 2019/05/03: Глибоке навчання: остаточний кордон для обробки сигналів та аналізу часових рядів? "У цій статті я хочу показати декілька областей, де сигнали чи часові ряди є життєво важливими".
- 2018/04/23: Я щойно повернувся з щорічної міжнародної конференції з акустики, мови та обробки сигналів, ICASSP 2018 . Мене вразила кількість робіт, дещо покладаючись на глибоке навчання, глибокі мережі тощо. Такій темі було присвячено два пленарні засідання з чотирьох (від Алекса Ачеро та Янна Лекуна). У той же час більшість дослідників, з якими я зустрічався, жартували з цього приводу ("Вибачте, мій плакат знаходиться на банках фільтрів, а не на глибокому навчанні", "Я не в цьому, у мене є невеликі набори даних") або цікавились, як набрати 0,5% на грандіозні виклики та втратити зацікавлених у моделюванні фізики чи статистичних пріорів.
- 14.01.2018: Чи може глибока сітка побачити кота? , від "абстрактного кота", до "найкращого кота", перевернутого, намальованого тощо, і якось перевершує результати на ескізах
- 2017/11/02: додано посилання на розсіювання перетворень / мереж
- 2017/10/21: Огляд згорткових нейронних мереж для зворотних проблем у зображенні
- Поглиблене навчання та його застосування для обробки сигналів та інформації , журнал IEEE "Обробка сигналів", січень 2011
Поглиблені посилання на вивчення "кроків" при стандартній обробці сигналів / зображень можна знайти внизу. Майкл Елад щойно написав Deep, Deep Trouble: Вплив глибокого навчання на обробку зображень, математику та людство (SIAM News, 2017/05), уривок:
Потім нейронні мережі раптом повернулися і з помстою.
Ця трибуна представляє інтерес, оскільки вона демонструє перехід від традиційної "обробки зображень", намагаючись моделювати / розуміти дані, до сфери правильності, не маючи особливого розуміння.
Цей домен розвивається досить швидко. Це не означає, що воно розвивається в якомусь навмисному чи постійному напрямку. Ні правильно, ні неправильно. Але сьогодні вранці я почув таке висловлювання (чи це жарт?):
поганий алгоритм з величезним набором даних може зробити краще, ніж розумний алгоритм з даними про підключення .
Ось моя дуже коротка спроба: глибоке навчання може дати найсучасніші результати, але не завжди зрозуміти, чому , і частина нашої роботи вченого залишається пояснити, чому все працює, який вміст даних тощо.
Глибоке навчання вимагає (величезних) добре розмічених баз даних. Будь-який час виконайте ремісничі роботи над окремими чи поодинокими зображеннями (тобто без величезної бази даних позаду), особливо там, де навряд чи вийде «безкоштовне зображення з тегами користувача» (у додатковому наборі набору « смішні коти, що грають в ігри та обличчя ») , ви можете дотримуватися традиційної обробки зображень на деякий час та отримувати прибуток. Нещодавно твіт резюмує , що:
Необхідність (безліч) мічених даних (без відсутніх змін) є вимикачем угод (і непотрібним) для багатьох доменів
Якщо їх вбивають (у чому я сумніваюся за короткий термін), вони ще не вмерли. Тож будь-яка навичка, яку ви здобудете в обробці сигналів, аналізі зображення, комп'ютерному зорі, допоможе вам у майбутньому. Про це, наприклад, йдеться у публікації блогу: чи ми забули про геометрію в комп’ютерному зорі? автор: Алекс Кендалл:
Глибоке навчання зробило революцію в комп'ютерному зорі. Сьогодні існує не так багато проблем, коли найкраще рішення не базується на моделі глибокого навчання. Зокрема, популярні нейромережі згортки, оскільки вони, як правило, працюють досить добре. Однак ці моделі в основному великі чорні коробки. Є багато речей, які ми про них не розуміємо.
Конкретним прикладом може слугувати наступне: пара дуже темних (наприклад, спостереження) зображень з одного і того ж місця, потребуючи оцінити, чи містить одне з них певну зміну, яку слід виявити, потенційно є питанням традиційної обробки зображень, більше Глибоке навчання (станом на сьогодні).
З іншого боку, настільки успішне, як глибоке навчання у великих масштабах, це може призвести до неправильної класифікації невеликих наборів даних, що може бути нешкідливим «в середньому» для деяких додатків. Два зображення, які трохи відрізняються від людського ока, можна класифікувати по-різному через DL. Або випадкові зображення можуть бути встановлені для певного класу. Дивіться, наприклад, глибокі нейронні мережі легко обманюються: прогнози високої довіри до невпізнанних зображень (Nguyen A, Yosinski J, Clune J. Proc. Комп'ютерне бачення та розпізнавання образів 2015), чи глибоке навчання має глибокі недоліки? , щодо змагальних негативів:
Мережа може неправильно класифікувати зображення після того, як дослідники застосували певне непомітне збурення. Збурення знаходять шляхом коригування значень пікселів для максимальної помилки прогнозування.
З усією належною повагою до "Глибокого навчання" подумайте про "масове виробництво у відповідь на зареєстроване, відоме, масове підтвердження чи очікуване поведінку", а не "єдиний предмет ремесла". Жодна краща (поки що) в єдиній шкалі індексу. Обом, можливо, доведеться співіснувати деякий час.
Однак глибоке навчання пронизує багато нових напрямків, як описано в посиланнях нижче.
На щастя, деякі люди намагаються знайти математичне обґрунтування глибокого навчання, прикладом якого є розсіювання мереж або перетворень, запропонованих Стефаном Маллатом та співавторами, див. Сайт ENS для розсіювання . Гармонічний аналіз та нелінійні оператори, функції Ліпшіца, інваріантність трансляції / обертання, що краще для середньої людини, що обробляє сигнал. Дивіться, наприклад, Розуміння глибоких згорткових мереж .