Рецидивна (CNN) модель на даних ЕЕГ


10

Мені цікаво, як інтерпретувати повторювану архітектуру в контексті EEG. Конкретно я думаю про це як про рецидивуючу CNN (на відміну від таких архітектур, як LSTM), але, можливо, це стосується і інших типів рекурентних мереж

Коли я читаю про R-CNN, вони зазвичай пояснюються в контекстах класифікації зображень. Вони зазвичай описуються як "навчання з часом" або "включаючи вплив часу-1 на поточний вхід"

Таке тлумачення / пояснення стає дійсно заплутаним при роботі з даними ЕЕГ. Приклад R-CNN, який використовується для даних ЕЕГ, можна знайти тут

Уявіть, у мене є приклади тренінгу, кожен з яких складається з масиву 1x512. Цей масив фіксує показник напруги для 1 електрода в 512 послідовних часових точках. Якщо я використовую це як вхід до повторюваного CNN (використовуючи 1D згортки), періодична частина моделі насправді не фіксує "час", правда? (як це мається на увазі в описах / поясненнях, обговорених раніше) Тому що в цьому контексті час вже захоплюється другим виміром масиву

Отже, при такому налаштуванні, що насправді повторювана частина мережі дозволяє нам моделювати, що звичайна CNN не може (якщо не вчасно)?

Мені здається, що повторюваний просто означає робити згортання, додавати результат до початкового вкладу та знову згортати. Це повторюється для x кількості повторюваних кроків. Яку перевагу насправді дає цей процес?


Я думаю, що зберігати оригінальний вхід на кожному кроці корисно, тому що дізнатися особистість може бути важко, тому залишкова мережа або просто копіювання вводу для обходу більшості прихованих шарів може бути корисним. Для особливого випадку RCNN, застосованого до eeg, ви можете уявити, що позначення згортки часу t = 50 мс, оскільки в цей час з'являється якась особливість. Тоді ваша мережа може переглянути початковий вхід у цей конкретний час для подальшого аналізу.
agemO

Відповіді:


1

Поточна частина мережі дозволяє, як правило, моделювати довгострокові та короткострокові залежності. Отже, ваша модель може мати певний стан.

Зазвичай це вигідно, якщо ви використовуєте таймсери. Наприклад, якщо у вас є дані з монітора серцевого ритму і вам подобається класифікувати між відпочинком, стресом і відновленням. Якщо у вашій точці даних сказано, що частота серцевих скорочень становить 130, це залежить від того, ви одужуєте від великих навантажень чи чогось іншого.

Редагувати: я забув ваше друге запитання.

Мені здається, що повторюваний просто означає робити згортання, додавати результат до початкового вкладу та знову згортати. Це повторюється для x кількості повторюваних кроків. Яку перевагу насправді дає цей процес?

Я міг би придумати кілька можливих відповідей. Складаючи повторювану частину, ви наче фільтруєте її. Таким чином, ви отримуєте більш чистий сигнал, і помилки не будуть стікати стільки. Ванільний р-н страждає від вибуху зникаючих градієнтів, тому це може бути його підходом до його подолання. Крім того, ви вбудовуєте свої функції в rcnn, що може призвести, як він заявив, до більшої кількості шляхів для експлуатації. Що робить його менш схильним до надмірного оснащення, таким чином, більш узагальненим.


0
  • 1x512 вхідний масив означає: періодична мережа обробляє напругу електрода в 512 рази, іншими словами, ви маєте єдину функцію для обробки.
  • CNN з однією функцією марний.

-1

Пам'ятайте, що CNN - це детектори функцій. Вихід згорткового шару - це матриця, яка сигналізує там, де була виявлена ​​певна особливість.

Тому повторювані CNN - це періодичні нейронні мережі, які вивчають послідовності функцій, де ці особливості також вивчаються під час тренінгу.


2
Це оманлива відповідь, CNN - це не детектори функцій, вони є перетворенням простору функцій, а потім оцінювачем функцій, які відображають перетворені функції на вихід. Також зовсім не те, про що просив ОП. Будь ласка, використовуйте замість цього коментарі для коментарів. Це змушує відповісти на питання і відштовхує інших від клацання.
JahKnows

@JahKnows Це залежить від інтерпретації, вони обоє, чи не так? погляньте на (yosinski.com/deepvis). Це може вам допомогти.
Медіа

@ncasas, будь ласка, надайте посилання на свій абзац?
Медіа
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.