Існує кілька варіантів, як нормалізувати зображення, але більшість, здається, використовують ці два методи:
- Віднімаємо середнє значення на канал, обчислене для всіх зображень (наприклад, VGG_ILSVRC_16_layers )
- Віднімання за пікселем / каналом, розраховане на всі зображення (наприклад, CNN_S , також див . Довідкову мережу Caffe )
Природний підхід міг би придумати нормалізацію кожного образу. Зображення, зроблене при денному світлі, призведе до загоряння більше нейронів, ніж зображення в нічний час доби, і, хоча, воно може повідомити нам про час, який ми зазвичай піклуємося про більш цікаві функції, наявні в краях тощо.
П'єр Серманет в 3.3.3 зазначає, що локальна нормалізація контрасту, що базується на зображенні, але я не натрапив на це в жодному із прикладів / навчальних посібників, які я бачив. Я також бачив цікаве питання щодо Quora та пост Xiu-Shen Wei, але, схоже, вони не підтримують два вище підходи.
Що саме я пропускаю? Це питання нормалізації кольору чи є документ, який насправді пояснює, чому так багато людей використовують такий підхід?