Мені цікаво, як інтерпретувати повторювану архітектуру в контексті EEG. Конкретно я думаю про це як про рецидивуючу CNN (на відміну від таких архітектур, як LSTM), але, можливо, це стосується і інших типів рекурентних мереж
Коли я читаю про R-CNN, вони зазвичай пояснюються в контекстах класифікації зображень. Вони зазвичай описуються як "навчання з часом" або "включаючи вплив часу-1 на поточний вхід"
Таке тлумачення / пояснення стає дійсно заплутаним при роботі з даними ЕЕГ. Приклад R-CNN, який використовується для даних ЕЕГ, можна знайти тут
Уявіть, у мене є приклади тренінгу, кожен з яких складається з масиву 1x512. Цей масив фіксує показник напруги для 1 електрода в 512 послідовних часових точках. Якщо я використовую це як вхід до повторюваного CNN (використовуючи 1D згортки), періодична частина моделі насправді не фіксує "час", правда? (як це мається на увазі в описах / поясненнях, обговорених раніше) Тому що в цьому контексті час вже захоплюється другим виміром масиву
Отже, при такому налаштуванні, що насправді повторювана частина мережі дозволяє нам моделювати, що звичайна CNN не може (якщо не вчасно)?
Мені здається, що повторюваний просто означає робити згортання, додавати результат до початкового вкладу та знову згортати. Це повторюється для x кількості повторюваних кроків. Яку перевагу насправді дає цей процес?