Я прочитав кілька статей про створення вручну зображень, щоб "обдурити" нейронну мережу (див. Нижче).
Це тому, що мережі лише моделюють умовну ймовірність ?
Якщо мережа може моделювати спільну ймовірність p ( y , x ) , чи все ж такі випадки будуть мати місце?
Я здогадуюсь, що такі штучно створені зображення відрізняються від тренувальних даних, тому вони мають низьку ймовірність . Отже, p ( y , x ) має бути низьким, навіть якщо p ( y | x ) може бути високим для таких зображень.
Оновлення
Я спробував кілька генеративних моделей, виявилося, що вони не є корисними, так що, мабуть, це є наслідком MLE?
Я маю на увазі у випадку, коли дивергенція KL використовується як функція втрат, значення де p d a t a ( x ) невелике, не впливає на втрати. Отже, для надуманого зображення, яке не відповідає p d a t a , значення p θ може бути довільним.
Оновлення
Я знайшов блог Андрія Карпаті, який показує
Ці результати не характерні лише для зображень, ConvNets, і вони також не є «недоліком» у Deep Learning.
ПОЯСНЕННЯ ТА ПЕРЕДАЧА ДОПЕРЕДАВНИХ ПРИКЛАДІ Глибокі нейронні мережі легко обманюються: прогнози високої довіри для невпізнанних зображень