Нейронна мережа - це чорна скринька, в тому сенсі, що, хоча вона може наближати будь-яку функцію, вивчення її структури не дасть вам ніякого розуміння щодо наближення структури функції.
Наприклад, одне поширене використання нейронних мереж у банківському бізнесі - класифікація позичальників на «хороших платників» та «поганих платників». У вас є матриця вхідних характеристик (стать, вік, дохід тощо) та вектор результатів R ("дефолт", "не дефолт" тощо). Коли ви моделюєте це за допомогою нейронної мережі, ви припускаєте, що існує функція f ( C ) = R у відповідному розумінні математичної функції. Ця функція f може бути довільно складною і може змінюватися відповідно до еволюції бізнесу, тому ви не можете отримати її вручну.СRf( С) = R
f
Проблема чорного поля: Наближення, надане нейронною мережею, не дасть тобі уявлення про форму f. Немає простого зв’язку між вагами та наближеною функцією. Навіть аналіз того, яка вхідна характеристика не має значення, є відкритою проблемою (див. Це посилання ).
Крім того, з точки зору традиційної статистики, нейронна мережа є не ідентифікованою моделлю: Враховуючи набір даних та топологію мережі, може бути дві нейронні мережі з різною вагою та однаковим результатом. Це робить аналіз дуже важким.
Як приклад "не чорних моделей коробки" або "інтерпретаційних моделей", ви маєте рівняння регресії та дерева рішень. Перший дає наближення закритої форми до f, де важливість кожного елемента явна, другий - графічний опис деяких відносних співвідношень ризиків / шансів.