Яка асимптотична часова складність регресії Лассо в міру збільшення кількості рядків або стовпців?
Яка асимптотична часова складність регресії Лассо в міру збільшення кількості рядків або стовпців?
Відповіді:
Нагадаємо, що ласо - це лінійна модель з регуляризацією .
Пошук параметрів можна сформулювати як необмежену задачу оптимізації, де параметри задаються
.
У обмеженій формулюванні параметри задаються методом
Яка проблема квадратичного програмування і, отже, поліном.
Майже всі процедури опуклої оптимізації, навіть для гнучких нелінійних речей, таких як нейронні мережі, покладаються на обчислення похідної ваших цільових параметрів wrt. Ви не можете взяти похідну хоча. Як такий, ви покладаєтесь на різні методи. Існує безліч методів пошуку параметрів. Ось оглядовий документ з цього питання, Оптимізація найменших квадратів з регуляризацією L1-норми . Часова складність ітеративної опуклої оптимізації є дещо складною для аналізу, оскільки вона залежить від критерію конвергенції. Як правило, ітераційні проблеми сходяться в меншій кількості епох у міру збільшення спостережень.
Хоча @JacobMick надає більш широкий огляд та посилання на рецензуючий документ, дозвольте мені дати "відповідь швидкого доступу" (що може вважатися особливим випадком його відповіді).
Список літератури: