Гарне питання. По-перше, пригадайте, звідки походить це наближення . Нехай - ваші точки даних, - ваша модель, а - параметри вашої моделі. Тоді об'єктивна функція задачі про нелінійні найменші квадрати - де - вектор залишків, . Точна гессіана об'єктивної функції - . Тож помилка в цьому наближенні( x i , y i ) f ( ⋅ ) β 1Н≈ JТJ( хi, уi)f( ⋅ )βrri=yi-f(xi,β)H=JTJ+∑ri∇2riH-JTJ=∑ri∇2ri12rТrrri= уi- f( хi, β)Н= JТJ+ ∑ ri∇2riН- JТJ= ∑ ri∇2ri. Це гарне наближення, коли самі залишки невеликі; або коли 2-я похідна залишків мала. Лінійні найменші квадрати можна вважати особливим випадком, коли 2-е похідне від залишків дорівнює нулю.
Що стосується скінченної різниці наближення, то вона порівняно дешева. Щоб обчислити центральну різницю, вам потрібно буде оцінити якобіанець додатково в рази (форвард різниці коштуватиме вам додаткових оцінок, тому я б не турбував). Похибка наближення центральної різниці пропорційна і , де - розмір кроку. Оптимальний розмір кроку - , деn ∇ 4 r h 2 h h ∼ ϵ 12nn∇4rh2h ϵh∼ϵ13ϵ- це машинна точність. Тому, якщо похідні залишків не вибухнуть, цілком зрозуміло, що наближення кінцевої різниці повинно бути НАДОБО кращим. Я мушу зазначити, що, хоча обчислення мінімальні, бухгалтерія нетривіальна. Кожна кінцева різниця в якобіані дасть вам по одному ряду гессіанців для кожного залишку. Потім вам доведеться зібрати Гессіана, використовуючи формулу вище.
Однак існує 3-й варіант. Якщо ваш вирішальник використовує метод Квазі-Ньютона (DFP, BFGS, Bryoden тощо), він вже наближає гессіана при кожній ітерації. Наближення може бути досить хорошим, оскільки використовує цілі функції та значення градієнта з кожної ітерації. Більшість вирішувачів надасть вам доступ до остаточної оцінки Гессі (або до її зворотної). Якщо це варіант для вас, я б використовував це як оцінку Гессі. Це вже обчислено, і це, мабуть, буде досить хорошою оцінкою.