Я вважаю, що відповідь залежить від сценарію.
Розглянемо NN (нейронна мережа) як оператор F, так що F (вхід) = вихід . У випадку, коли це відношення є лінійним, так що F (A * input) = A * вихід , то ви можете вибрати або залишити вхід / вихід ненормалізованим у їх необроблених формах, або нормалізувати обидва для усунення A. Очевидно, це припущення про лінійність є порушені в завданнях класифікації або майже будь-якій задачі, яка видає ймовірність, де F (A * input) = 1 * вихід
На практиці нормалізація дозволяє непридатним мережам бути придатними, що є ключовим для експериментаторів / програмістів. Тим не менш, точний вплив нормалізації буде залежати не тільки від архітектури / алгоритму мережі, але і від статистичного попереднього введення та виведення.
Більше того, NN часто застосовується для вирішення дуже складних проблем у чорному режимі, а це означає, що основна проблема може мати дуже погану статистичну формулювання, що ускладнює оцінку впливу нормалізації, спричиняючи технічну перевагу (стає придатним) домінувати над своїм впливом на статистику.
У статистичному сенсі нормалізація видаляє варіації, які, як вважають, є непричинними при прогнозуванні виходу, щоб запобігти НН дізнатися цю зміну як предиктор ( НН не бачить цієї зміни, тому не може використовувати її ).