"Найменші квадрати" означають, що загальне рішення мінімізує суму квадратів помилок, допущених в результатах кожного окремого рівняння. Найголовніше застосування - у встановленні даних. Найкраще розміщення в значенні найменших квадратів мінімізує суму залишків у квадраті, залишковою є різниця між спостережуваною величиною та встановленою величиною, наданою моделлю. Проблеми з найменшими квадратами поділяються на дві категорії: лінійні або звичайні найменші квадрати та не- найменші лінійні квадрати, залежно від того, чи є залишки лінійними у всіх невідомих.
Байєсова лінійна регресія - це підхід до лінійної регресії, при якому статистичний аналіз проводиться в контексті байєсівського висновку. Коли в регресійній моделі є помилки, які мають нормальний розподіл, і якщо передбачається певна форма попереднього розподілу, доступні явні результати для заднього розподілу ймовірності параметрів моделі.
∥ β∥2
Альтернативно регульованою версією найменших квадратів є Лассо (найменший абсолютний оператор усадки та вибору), який використовує обмеження, що , L1-норма вектора параметрів, не перевищує заданого значення . У байєсівському контексті це еквівалентно розміщенню попереднього розподілу Лапласа на нуль середнього на вектор параметра.∥ β∥1
Однією з головних відмінностей між регресією Лассо та хребтом є те, що в регресії хребта, коли штраф збільшується, усі параметри знижуються, залишаючись ненульовими, тоді як у Лассо збільшення штрафу призведе до того, що все більше параметрів буде приведений до нуля.
У цій роботі порівнюється регулярне ласо з байєсівською ласо та регресією хребта (див. Рисунок 1 ).