Часто говорять, що регресія гауссового процесу відповідає (GPR) байєсовій лінійній регресії з (можливо) нескінченною кількістю базових функцій. Зараз я намагаюся детально зрозуміти це, щоб зрозуміти, які моделі я можу виразити за допомогою GPR.
- Ви вважаєте, що це хороший підхід, щоб спробувати зрозуміти GPR?
У книзі Гауссових процесів машинного навчання Расмуссена та Вільямса показано, що сукупність гауссових процесів, описаних параметризованим експоненціальним квадратним ядром можна рівнозначно охарактеризувати як байєсівську регресію з попередньою вірою на ваги і нескінченну кількість базових функцій форма Таким чином, параметризація ядра могла б повністю перевестись у параметризацію бази функції.w∼N(0,σ 2 p I)ϕc(x;l)=exp(-(x-c)2
- Чи може параметризація диференційованого ядра завжди переводитися на параметризацію попередньої та базової функцій чи є диференційовані ядра, де, наприклад, кількість базових функцій залежить від конфігурації?
Поки я розумію, що для функції фіксованого ядра k (x, x ') теорема Мерсера говорить нам, що можна виразити як де є функцією або в числових числах, або в складних числах. Таким чином, для даного ядра відповідна байєсова регресійна модель має попередній та базові функції . Таким чином, кожен GP може навіть сформулюватися як байєсова модель лінійної регресії з діагональною попередньою. Однак якщо ми зараз використовуємо теорему мерсерів для кожної конфігурації параметризованого ядра що диференціюється у кожному
Наступне моє запитання - про обернену теорему про найманців.
- Які набори базових функцій призводять до дійсних ядер?
І розширення
- Які набори параметризованих базових функцій призводять до дійсних диференційованих ядер?