Кажуть, що пеналізовані регресійні оцінки, такі як LASSO та гребінь, відповідають байєсівським оцінкам з певними приорами.
Так, це правильно. Кожного разу, коли у нас виникає проблема оптимізації, що передбачає максимізацію функції вірогідності журналу плюс функцію штрафу за параметрами, це математично еквівалентно максимізації заднього розміру, коли функція штрафу вважається логарифмом попереднього ядра. † Щоб побачити це, припустимо, ми маємо штрафну функцію w, використовуючи параметр настройки λ . Об'єктивну функцію в цих випадках можна записати так:†wλ
Hx(θ|λ)=ℓx(θ)−w(θ|λ)=ln(Lx(θ)⋅exp(−w(θ|λ)))=ln(Lx(θ)π(θ|λ)∫Lx(θ)π(θ|λ)dθ)+const=lnπ(θ|x,λ)+const,
де ми використовуємо попередній π(θ|λ)∝exp(−w(θ|λ)) . Зверніть увагу, що параметр настройки в оптимізації розглядається як фіксований гіперпараметр у попередньому розподілі. Якщо ви проводите класичну оптимізацію з фіксованим параметром настройки, це еквівалентно оптимізації Байєса з фіксованим гіперпараметром. Для регресії LASSO та Ridge штрафні функції та відповідні попередні еквіваленти:
LASSO RegressionRidge Regressionπ(θ|λ)π(θ|λ)=∏k=1mLaplace(0,1λ)=∏k=1mλ2⋅exp(−λ|θk|),=∏k=1mNormal(0,12λ)=∏k=1mλ/π−−−√⋅exp(−λθ2k).
Колишній метод штрафує коефіцієнти регресії відповідно до їх абсолютної величини, що є еквівалентом наведення попереднього Лапласа, розташованого в нулі. Останній метод карає коефіцієнти регресії відповідно до їх квадратичної величини, що є еквівалентом наведення нормального попереднього розміщення, розміщеного в нулі.
Тепер частофіліст оптимізував параметр настройки шляхом перехресної перевірки. Чи є баєсівський еквівалент цього чи використовується він взагалі?
До тих пір, поки метод частотистів може ставитись як проблема оптимізації (замість того, щоб сказати, включаючи тест гіпотези, чи щось подібне), буде байєсівська аналогія з використанням еквівалентного попереднього. Так само, як часто лікарі можуть вважати параметр настройки λ як невідомий і оцінювати це за даними, байєсівський може аналогічно трактувати гіперпараметр λ як невідомий. У повному байєсівському аналізі це передбачає надання гіперпараметру свого власного попереднього і знаходження заднього максимуму під цим попереднім, що було б аналогічним максимізації наступної цільової функції:
Hx(θ,λ)=ℓx(θ)−w(θ|λ)−h(λ)=ln(Lx(θ)⋅exp(−w(θ|λ))⋅exp(−h(λ)))=ln(Lx(θ)π(θ|λ)π(λ)∫Lx(θ)π(θ|λ)π(λ)dθ)+const=lnπ(θ,λ|x)+const.
This method is indeed used in Bayesian analysis in cases where the analyst is not comfortable choosing a specific hyperparameter for their prior, and seeks to make the prior more diffuse by treating it as unknown and giving it a distribution. (Note that this is just an implicit way of giving a more diffuse prior to the parameter of interest θ.)
(Comment from statslearner2 below) I'm looking for numerical equivalent MAP estimates. For instance, for a fixed penalty Ridge there is a gaussian prior that will give me the MAP estimate exactly equal the ridge estimate. Now, for k-fold CV ridge, what is the hyper-prior that would give me the MAP estimate which is similar to the CV-ridge estimate?
Before proceeding to look at K-fold cross-validation, it is first worth noting that, mathematically, the maximum a posteriori (MAP) method is simply an optimisation of a function of the parameter θ and the data x. If you are willing to allow improper priors then the scope encapsulates any optimisation problem involving a function of these variables. Thus, any frequentist method that can be framed as a single optimisation problem of this kind has a MAP analogy, and any frequentist method that cannot be framed as a single optimisation of this kind does not have a MAP analogy.
KλxKx1,...,xK. For each of sub-vector k=1,...,K you fit the model with the "training" data x−k and then measure the fit of the model with the "testing" data xk. In each fit you get an estimator for the model parameters, which then gives you predictions of the testing data, which can then be compared to the actual testing data to give a measure of "loss":
EstimatorPredictionsTesting lossθ^(x−k,λ),x^k(x−k,λ),Lk(x^k,xk|x−k,λ).
The loss measures for each of the K "folds" can then be aggregated to get an overall loss measure for the cross-validation:
L(x,λ)=∑kLk(x^k,xk|x−k,λ)
One then estimates the tuning parameter by minimising the overall loss measure:
λ^≡λ^(x)≡arg min λL(x,λ).
We can see that this is an optimisation problem, and so we now have two seperate optimisation problems (i.e., the one described in the sections above for θ, and the one described here for λ). Since the latter optimisation does not involve θ, we can combine these optimisations into a single problem, with some technicalities that I discuss below. To do this, consider the optimisation problem with objective function:
Hx(θ,λ)=ℓx(θ)−w(θ|λ)−δL(x,λ),
where δ>0 is a weighting value on the tuning-loss. As δ→∞ the weight on optimisation of the tuning-loss becomes infinite and so the optimisation problem yields the estimated tuning parameter from K-fold cross-validation (in the limit). The remaining part of the objective function is the standard objective function conditional on this estimated value of the tuning parameter. Now, unfortunately, taking δ=∞ screws up the optimisation problem, but if we take δ to be a very large (but still finite) value, we can approximate the combination of the two optimisation problems up to arbitrary accuracy.
From the above analysis we can see that it is possible to form a MAP analogy to the model-fitting and K-fold cross-validation process. This is not an exact analogy, but it is a close analogy, up to arbitrarily accuracy. It is also important to note that the MAP analogy no longer shares the same likelihood function as the original problem, since the loss function depends on the data and is thus absorbed as part of the likelihood rather than the prior. In fact, the full analogy is as follows:
Hx(θ,λ)=ℓx(θ)−w(θ|λ)−δL(x,λ)=ln(L∗x(θ,λ)π(θ,λ)∫L∗x(θ,λ)π(θ,λ)dθ)+const,
where L∗x(θ,λ)∝exp(ℓx(θ)−δL(x,λ)) and π(θ,λ)∝exp(−w(θ|λ)), with a fixed (and very large) hyper-parameter δ.
† This gives an improper prior in cases where the penalty does not correspond to the logarithm of a sigma-finite density.