Я думаю, що пара вас бентежить, то спочатку спочатку.
x [ n ]h [ n ]x [ n ]h [ n ]у[ n ] = ( x ⋆ h ) [ n ]
у[ n ] = ∑m = - ∞∞x [ m ] h [ n - m ]
Вище сказане, якщо для одновимірних сигналів, але те саме можна сказати і для зображень, які є просто двовимірними сигналами. У цьому випадку рівняння стає:
Ян е ш[ r , c ] = ∑u = - ∞∞∑v = - ∞∞Яo l d[ u , v ] k [ r - u , c - v ]
Образно кажучи, це те, що відбувається:
У будь-якому випадку, що потрібно пам’ятати, це те, що ядро насправді вивчилося під час тренування глибокої нейронної мережі (DNN). Ядро якраз і стане тим, з чим ви збираєте свій вхід. DNN вивчить ядро таким чином, що воно виявить певні грані зображення (або попереднього зображення), які будуть корисні для зменшення втрати цільової цілі.
Це перший вирішальний момент, який потрібно зрозуміти: традиційно люди розробляли ядра, але в процесі глибокого навчання ми дозволяємо мережі вирішувати, якою має бути найкраще ядро. Однак ми визначаємо лише розміри ядра. (Це називається гіперпараметром, наприклад, 5x5 або 3x3 тощо).