Якщо це лише разовий випадок, ви можете просто перетренувати нейронну мережу. Якщо вам часто доводиться додавати нові заняття, то це погана ідея. Те, що ви хочете зробити в таких випадках, називається пошук зображень на основі вмісту (CBIR) або просто пошук зображень або візуальний пошук. Я поясню обидва випадки у своїй відповіді нижче.
Одноразовий випадок
Якщо це трапляється один раз - ви забули 11-й клас, або ваш клієнт передумав - але це не повториться , тоді ви можете просто 11-й вихідний вузол до останнього шару. Ініціалізуйте ваги до цього вузла випадковим чином, але використовуйте ваги, які у вас вже є, для інших результатів. Потім просто тренуйте це як завжди. Можливо, буде корисно встановити деякі ваги, тобто не тренуйте їх.
Крайнім випадком буде лише тренувати нові ваги, а всі інші залишати зафіксованими. Але я не впевнений, чи добре це буде працювати - можливо, варто спробувати.
Пошук вмісту на основі вмісту
Розглянемо наступний приклад: ви працюєте в магазині компакт-дисків, який хоче, щоб їхні клієнти мали змогу сфотографувати обкладинку альбому, і додаток показує їм компакт-диск, який вони сканували у своєму інтернет-магазині. У такому випадку вам доведеться переучити мережу для кожного нового компакт-диска, який вони мають у магазині. Це може бути 5 нових компакт-дисків щодня, тому перепідготовка мережі таким чином не підходить.
Рішення полягає в підготовці мережі, яка відображає зображення в просторі зображень. Кожне зображення буде представлене дескриптором, який є, наприклад, 256-мірним вектором. Ви можете "класифікувати" зображення, обчисливши цей дескриптор і порівнявши його з вашою базою дескрипторів (тобто дескрипторами всіх компакт-дисків, які є у вашому магазині). Виграє найближчий дескриптор у базі даних.
Як ви навчаєте нейронну мережу вивчати такий вектор дескриптора? Це активне поле досліджень. Ви можете знайти останні роботи, шукаючи такі ключові слова, як "пошук зображень" або "метричне навчання".
Зараз люди зазвичай беруть заздалегідь підготовлену мережу, наприклад VGG-16, відрізають шари FC і використовують остаточну згортку як вектор вашого дескриптора. Ви можете далі тренувати цю мережу, наприклад, використовуючи сіамську мережу з втратою триплетів.