Чи є регуляризація Тихонова такою ж, як регрес хребта?


Відповіді:


47

Регуляризація Тихонова є більшим набором, ніж регресія хребта. Ось моя спроба точно визначити, чим вони відрізняються.

Припустимо, що для відомої матриці і вектора ми хочемо знайти вектор такий, що:b xAbx

Ax=b .

Стандартний підхід - це звичайна лінійна регресія найменших квадратів. Однак, якщо жоден не задовольняє рівнянню або більше одного з - це рішення не є унікальним - проблема, як вважається, невідома. Звичайні найменші квадрати прагнуть мінімізувати суму залишків у квадраті, які можна компактно записати як:хxx

Axb2

де є евклідовою нормою. У матричних позначеннях рішення, позначене x^ , задається:

x^=(ATA)1ATb

Регуляризація Тихонова мінімізується

Axb2+Γx2

для якоїсь належно вибраної матриці Тихонова . Явне рішення матричної форми, позначене , задається:хΓx^

x^=(ATA+ΓTΓ)1ATb

Ефект регуляризації може змінюватись за шкалою матриці . Для це зводиться до нерегульованого рішення найменших квадратів за умови, що (A T A) −1 існує.Γ = 0ΓΓ=0

Типово для регресії хребта описано два відхилення від регуляризації Тихонова. По-перше, матриця Тихонова замінюється кратною матрицею ідентичності

Γ=αI ,

віддаючи перевагу рішенням із меншою нормою, тобто нормі . Тоді стає веде доL2ΓTΓα2I

x^=(ATA+α2I)1ATb

Нарешті, для регресії хребта зазвичай передбачається, що змінні масштабуються так, що має вигляд кореляційної матриці. і - вектор кореляції між змінними і , що веде доAXTXXTbxb

x^=(XTX+α2I)1XTb

Зауважте, у цій формі множник Lagrange зазвичай замінюється на , або інший символ, але зберігає властивість k λ λ 0α2kλλ0

Формулюючи цю відповідь, я визнаю запозичення у Вікіпедії та оцінці Рейджа вагою функції передачі ваг


10
(+1) Для повноти варто згадати, що в практичному застосуванні регуляризована система зазвичай записується у формі , який потім може бути вирішений як стандартна задача лінійних найменших квадратів (наприклад, через QR / SVD на , без явного формування нормальних рівнянь). [AαΓ]x[b0]A^xb^A^
GeoMatt22

Влучне зауваження. Я додам його згодом.
Карл

Чи є згладжування сплайнів та подібних методів розширення основи підмножиною регуляризації Тихонова?
Sycorax повідомляє про відновлення Моніки

@Sycorax Я не очікую цього. Наприклад, B-сплайн встановлює похідні на нулі у кінцевих точках, а похідні та величини сплайну встановлюють між даними між кінцевими точками. Регуляризація Тихонова дозволить звести до мінімуму будь-яку помилку параметра, яку ви їм повідомлите, змінивши нахил пристосування. Отже, різні речі.
Карл

Також регуляризація Тихонова має формулювання в довільних розмірах для (роздільних?) Пробілів Гільберта
AIM_BLB

23

Карл дав ґрунтовну відповідь, яка чудово пояснює математичні відмінності між регуляризацією Тихонова та регресією хребта. Натхненний історичної дискусія тут , я думав , що це може бути корисно додати короткий приклад , який демонструє , як більш загальні рамки Тихонов можуть бути корисними.

Спочатку коротка примітка про контекст. Регресія хребта виникла в статистиці, і хоча регуляризація зараз широко поширена в статистиці та машинному навчанні, підхід Тихонова спочатку був мотивований оберненими проблемами, що виникають при асиміляції даних на основі моделі (особливо в геофізиці ). Спрощений приклад, наведений нижче, знаходиться в цій категорії (для реконструкції палеоклімату використовуються більш складні версії ).


Уявіть, що ми хочемо реконструювати температури у минулому на основі сучасних вимірювань . У нашій спрощеній моделі будемо вважати, що температура розвивається за рівнянням тепла в 1D з періодичними граничними умовами Простий (явний) кінцевий різницевий підхід призводить до дискретної моделі Математично матриця еволюції є зворотною, тому у нас є Однак чисельноu [ x , t = T ] u t = u x x u [ x + L , t ] = u [ x , t ] Δ uu[x,t=0]u[x,t=T]

ut=uxx
u[x+L,t]=u[x,t]
A u t = A - 1 u t + 1 T
ΔuΔt=LuΔx2ut+1=Aut
A
ut=A1ut+1
, труднощі виникнуть, якщо інтервал часу занадто довгий.T

Регуляризація Тихонова може вирішити цю проблему, вирішивши що додає невеликий штраф на шорсткість . ω21uxx

Autut+1ωLut0
ω21uxx

Нижче наведено порівняння результатів:

Тихонов проти шашки

Ми можемо бачити, що вихідна температура має плавний профіль, який згладжується ще далі дифузією, щоб отримати . Пряма інверсія не вдається відновити , і рішення показує сильні артефакти "перевірки" . Однак рішення Тихонова здатне відновити з досить хорошою точністю.u f w d u 0 u i n v u r e g u 0u0ufwdu0uinvuregu0

Зауважте, що в цьому прикладі регресія хребта завжди підштовхувала б наше рішення до "крижаного періоду" (тобто рівномірних нульових температур). Регресія Тихонова дозволяє нам гнучкіше попереднє обмеження, засноване на фізичній основі: Тут наше покарання, по суті, говорить про те, що реконструкція повинна розвиватися лише повільно, тобто приклад .uut0


Код Matlab для прикладу наведено нижче (можна запустити тут ).

% Tikhonov Regularization Example: Inverse Heat Equation
n=15; t=2e1; w=1e-2; % grid size, # time steps, regularization
L=toeplitz(sparse([-2,1,zeros(1,n-3),1]/2)); % laplacian (periodic BCs)
A=(speye(n)+L)^t; % forward operator (diffusion)
x=(0:n-1)'; u0=sin(2*pi*x/n); % initial condition (periodic & smooth)
ufwd=A*u0; % forward model
uinv=A\ufwd; % inverse model
ureg=[A;w*L]\[ufwd;zeros(n,1)]; % regularized inverse
plot(x,u0,'k.-',x,ufwd,'k:',x,uinv,'r.:',x,ureg,'ro');
set(legend('u_0','u_{fwd}','u_{inv}','u_{reg}'),'box','off');

Всі компліменти тепло отримали. Варто згадати, навіть якщо це трохи відвернути тему, що як регуляризація Тихонова, так і регресія хребта можуть використовуватися для орієнтації на фізичні регресійні цілі. (+1)
Карл

2
@Carl це, безумовно, правда. Ми могли б навіть використовувати його тут , при перемиканні змінних в ! (Взагалі, будь-яка проблема Тихонова з неперевернутою матрицею Тихонова може бути перетворена на регресію хребта.)v=Lu
GeoMatt22,
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.