Поступова регресія Гаусса


11

Я хочу здійснити поступову регресію процесу гауса, використовуючи розсувне вікно над точками даних, які надходять по черзі через потік.

Дозволяє dпозначають розмірність вхідного простору. Отже, кожен пункт данихxi має d кількість елементів.

Дозволяє n бути розміром розсувного вікна.

Для того, щоб робити прогнози, мені потрібно обчислити зворотну грамматрицю K, де Kij=k(xi,xj) і k - квадратне експоненціальне ядро.

Щоб уникнути збільшення К із кожним новим точком даних, я подумав, що можу видалити найдавнішу точку даних, перш ніж додавати нові точки, і таким чином запобігаю зростанню грам. Наприклад, нехайK=ϕ(X)TΣϕ(X) де Σ - коваріація ваг і ϕ - це неявна функція відображення, що має на увазі квадратне експоненціальне ядро.

Тепер нехай X=[xtn+1|xtn+2|...|xt] та Xnew=[xtn+2|...|xt|xt+1] де xє d від 1 матриці стовпців.

Мені потрібен ефективний спосіб знайти це Knew1 потенційно використовуючи K. Це не схоже на зворотну проблему з оновленою матрицею 1-го рангу, яку можна ефективно вирішити за допомогою формули Шермана-Моррісона.

Відповіді:


8

Для цього було кілька рекурсивних алгоритмів. Ви повинні подивитися алгоритм рекурсивного найменшого квадрату ядра (KRLS) та пов'язані з ним алгоритми онлайн-GP.


Щиро дякую за ці чудові покажчики!
bfaskiplar

-1

Поетапна оцінка моделей ГП добре вивчена в літературі. Основна ідея - це замість того, щоб обумовлювати всі нові спостереження, які ви хочете передбачити, умовити один крок вперед і робити це повторно. Це стає якось близьким до фільтрації кальмана.


Ця відповідь буде покращена, якби вона цитувала книгу, статтю чи інше наукове видання.
Sycorax повідомляє про відновлення Моніки
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.