Яка різниця між виконанням лінійної регресії з функцією радіального основи Гаусса (RBF) і лінійною регресією з ядром Гаусса?
Яка різниця між виконанням лінійної регресії з функцією радіального основи Гаусса (RBF) і лінійною регресією з ядром Гаусса?
Відповіді:
Єдина реальна різниця полягає в регуляризації, яке застосовується. Регульована мережа RBF зазвичай використовує штраф на основі норми у вазі. Для версії ядра пені, як правило, стосуються норми квадрата ваг лінійної моделі, неявно побудованої в просторі ознак, індукованому ядром. Основна практична відмінність цього полягає в тому, що штраф за мережу RBF залежить від центрів мережі RBF (а отже, і від вибірки використовуваних даних), тоді як для ядра RBF індукований простір функцій однаковий незалежно від вибірки дані, тому штраф - це штраф за функцією моделі, а не за її параметризацією .
Іншими словами, для обох моделей у нас є
Для підходу до мережі RBF критерієм навчання є
Для методу ядра RBF маємо, що , і . Це означає, що штраф у квадратній нормі на вагах моделі в індукованому просторі функцій можна записати через подвійні параметри, як
де - це матриця парних оцінок ядра для всіх моделей тренувань. Критерій навчання є тоді
.
Єдина відмінність між двома моделями - у терміні регуляризації.
Основна теоретична перевага підходу ядра полягає в тому, що він дозволяє інтерпретувати нелінійну модель як лінійну модель після фіксованого нелінійного перетворення, яке не залежить від вибірки даних. Таким чином, будь-яка статистична теорія навчання, що існує для лінійних моделей, автоматично переходить у нелінійну версію. Однак, все це виходить з ладу, як тільки ви спробуєте і налаштуєте параметри ядра, і тоді ми повертаємося майже до тієї ж точки теоретично, як і в нейронних мережах RBF (і MLP). Тож теоретична перевага, можливо, не така велика, як нам би хотілося.
Чи може це змінити ефективність? Напевно, не багато. Теореми "без вільного обіду" дозволяють припустити, що не існує апріорної переваги будь-якого алгоритму над усіма іншими, і різниця в регуляризації є досить тонкою, тому, якщо ви сумніваєтеся, спробуйте обидва та виберіть найкраще відповідно до, наприклад, перехресної перевірки.