Швидкість, обчислювальні витрати PCA, LASSO, еластична сітка


18

Я намагаюся порівняти складну обчислювальну складність / швидкість оцінки трьох груп методів лінійної регресії, як це відмічено у Hastie et al. "Елементи статистичного навчання" (2-е видання), глава 3:

  1. Вибір підмножини
  2. Методи усадки
  3. Методи з використанням похідних напрямків введення (PCR, PLS)

Порівняння може бути дуже приблизним, просто щоб дати деяку думку. Я вважаю, що відповіді можуть залежати від розміру проблеми та того, як це відповідає архітектурі комп'ютера, тому для конкретного прикладу можна врахувати розмір вибірки в 500 та 50 регресорів-кандидатів. Мене найбільше цікавить мотивація, що лежить в основі складності обчислювальної швидкості / оцінювання, але не в тому, скільки часу це займе на певному процесорі для даного прикладу.


При використанні ПЛР або ПЛС кількість компонентів є параметром настройки (аналогічно в регресії хребта). Тож ці методи також потрібно буде перекреслити, щоб знайти оптимальну кількість компонентів. LASSO також має один параметр регуляризації, але еластична сітка має два (еластична сітка = гребінь + LASSO), тому перехресне підтвердження дорожче. Крім цього, LASSO, ймовірно, повільніше прилаштовується, ніж всі інші моделі, оскільки не має рішення закритої форми. λ
амеба каже, що повернеться до Моніки

Дякую! Ваш коментар може приємно відповісти, якби ви включили ще дві деталі: (1) наскільки дорого коштує одна ітерація PCR та PLS порівняно з однією програмою OLS регулярної регресії; (2) точніше оцінити швидкість LASSO, щоб порівняти її зі швидкістю регулярної регресії (це поліноміально, експоненціально чи лінійно дорожче, і чому).
Річард Харді

На жаль, я не маю готової відповіді на це, особливо на (2). Тому я залишив лише коментар. +1, до речі, і вітаємо з 5k повторенням!
амеба каже, що поверніть Моніку

1
@amoeba, дякую! Я не міг очікувати, що досяг 5 к, коли я почав (дуже повільно) минулого року. Але дуже цікаво і корисно бути активним членом тут на Cross Validated!
Річард Харді

@amoeba, я думаю, що я отримав складність LASSO, якщо використовується алгоритм LARS; Я відповідно оновив свою посаду. Але я ретельно не читав папір ЛАРС, тому не зовсім впевнений, що це правильно ...
Річард Харді

Відповіді:


5

Група 1 :
Складність / швидкість групи 1. здається не надто складно розібратися, якщо використовуються алгоритми грубої сили (хоча можуть бути і більш ефективні альтернативи, такі як алгоритм "стрибків і меж"). Наприклад, для повного вибору підмножини знадобиться регресії K, щоб задати пул функцій K- кандидата. Пристосування OLS однієї лінійної регресії має складність O ( K 2 n ) (відповідно до цього посту ), де n - розмір вибірки. Отже, загальна складність вибору повного підмножини грубої сили повинна становити O ( 2 K K 22KKO(K2n)n .O(2KK2n)

Група 2 :
Складність / швидкість групи 2. обговорюється в розділах 3.8 та 3.9 книги. Наприклад, регресія хребта з заданим покаранням має таку ж обчислювальну складність, як і звичайна регресія. Оскільки λ потрібно знайти за допомогою перехресної перевірки, обчислювальне навантаження збільшується лінійно в кількості розбиття даних, використовуваних при перехресній валідації (скажімо, S ). Якщо сітка λ має L точок, то загальна складність регресії хребта з настройкою параметра λ буде O ( L S K 2 n ) .λλSλLλO(LSK2n)
У книзі є досить багато розмов про ЛАССО , але я не зміг знайти те, що мені потрібно. Однак я знайшов на с. 443 Efron et al. "Найменший кут регресії" (2004), що складність LASSO для даного така ж, як і складність OLS-приладу лінійної регресії, якщо використовується метод LARS. Тоді загальна складність LASSO з налаштуванням параметра λ буде O ( L S K 2 n ) . (Я не читав уважно цей папір, тому, будь ласка, виправте мене, якщо я помилився з цим.) Еластична сітка поєднує хребет та LASSO; обидві мають однакову складність обчислювальної техніки; отже, складність еластичної сітки повинна бутиλλO(LSK2n)
де A - розмір сітки параметру настройки α, який врівноважує ваги гребеня проти LASSO.O(ALSK2n)Aα

Група 3 :
Я все ще не пропускаю жодної примітки щодо складності / швидкості для групи 3, яка складається з основних регресій компонентів (PCR) та часткових найменших квадратів (PLS).


2

Це лише одна частина питання 2 групи 3 вище (а саме PLS), але, тим не менш, може бути інформативною: Srinivasan et al. (2010, технічний звіт; див. Https://www.umiacs.umd.edu/~balajiv/Papers/ UMD_CS_TR_Pls_Gpu.pdf ) здійснив деякі вимірювання на PLS, використовуючи алгоритм NIPALS - вказавши, що складність цього алгоритму в часі (і просторі) буде O (dN) - для вилучення і включення їх у різні моделі для a) виявлення людини на зображеннях, і b ) розпізнавання обличчя. Вимірювання проводилися за допомогою власної реалізації на основі GPU.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.