Які застосування або переваги регресії зменшення розмірності (DRR) або контрольованих методів зменшення розмірності (SDR) в порівнянні з традиційними методами регресії (без зменшення розмірності)? Цей клас методів знаходить низьке розмірне представлення набору функцій для проблеми регресії. Приклади таких методів включають нарізану зворотну регресію, основні гессійські напрямки, оцінку середньої різниці нарізаних, зворотну регресію нарізаного ядра, регресію основних компонентів тощо.
З точки зору перехресного підтвердження RMSE, якщо алгоритм краще виконував завдання регресії без будь-якого зменшення розмірності, то яке реальне використання зменшення розмірності для регресії? Я не розумію цих методів.
Чи використовуються ці методи випадково, щоб зменшити складність простору та часу для регресії? Якщо це головна перевага, корисними будуть деякі ресурси щодо зменшення складності для великомірних наборів даних, коли ці методи будуть використані. Я обговорюю це з тим, що для самої методики DRR або SDR потрібно певний час та місце. Це SDR / DRR + регресія на наборі даних із низьким затемненням швидше, ніж лише регресія на високотемпературному наборі даних?
Чи вивчена ця настройка лише з абстрактного інтересу і не має гарного практичного застосування?
Як побічна думка: часом бувають припущення, що спільний розподіл ознак та відповіді лежить на багатоманітності. Для вирішення проблеми регресії має сенс вивчити різноманітність із спостережуваного зразка в цьому контексті.Y