Я намагаюся налаштувати гіперпараметри алгоритму регресії гауссового процесу, який я реалізував. Я просто хочу максимально збільшити граничну ймовірність журналу, задану формулою де K - матриця коваріації з елементи K_ {ij} = k (x_i, x_j) = b ^ {- 1} \ exp (- \ frac {1} {2} (x_i-x_j) ^ TM (x_i-x_j)) + a ^ {- 1 } \ delta_ {ij} де M = lI і a, b і l - гіперпараметри.
часткова похідна граничних параметрів wrt граничної ймовірності задається наступними
Оскільки елементи матриці залежить від параметрів, так що похідні і зворотний . Це означає, що при використанні оптимізатора на основі градієнта для оцінки градієнта в заданій точці (значення параметра) буде потрібно перерахунок матриці коваріації. У моєму застосуванні це неможливо, оскільки обчислення коваріаційної матриці з нуля та обчислення її оберненої в кожній ітерації градієнтного сходження занадто дорого. Моє питання - які мої варіанти знайти досить хороше поєднання цих трьох параметрів? і я також не знаю, який параметр оптимізувати спочатку, і я вдячний за будь-які вказівники щодо цього питання.