Загалом, прокляття розмірності ускладнює проблему пошуку через простір і впливає на більшість алгоритмів, які «навчаються» шляхом розподілу їхнього векторного простору. Чим вище розмірність нашої проблеми оптимізації, тим більше даних нам потрібно, щоб заповнити простір, під який ми оптимізуємось.
Узагальнені лінійні моделі
β^=(X′X)−1X′y
Дерева
рішень Рішення дерев також страждають від прокляття розмірності. Дерева рішень безпосередньо розділяють пробний простір на кожному вузлі. Зі збільшенням простору вибірки відстані між точками даних збільшуються, що значно ускладнює пошук «хорошого» розколу.
Випадкові ліси
Випадкові ліси використовують колекцію дерев рішень, щоб зробити свої прогнози. Але замість того, щоб використовувати всі функції вашої проблеми, окремі дерева використовують лише підмножину функцій. Це мінімізує простір, який оптимізує кожне дерево, і може допомогти боротися з проблемою прокляття розмірності.
Алгоритми підсилення дерева Boosted Tree, такі як AdaBoost, страждають від прокляття розмірності і мають тенденцію до перенавантаження, якщо регуляризація не використовується. Я не буду заглиблюватися в глибину, оскільки публікація AdaBoost менш чи більше схильна до накладання?
пояснює причину, чому краще, ніж я міг.
Нейронні мережі
Нейронні мережі дивні в тому сенсі, що на них обох є і не впливає прокляття розмірності, що залежить від архітектури, активацій, глибини тощо. Отже, щоб повторити прокляття розмірності - проблема, що величезна кількість очок необхідна у високій розміри для покриття вхідного простору. Один із способів інтерпретації глибоких нейронних мереж - це думати, що всі шари очікують, що останній шар виконує складну проекцію багатовимірного колектора на колектор нижнього розміру, де тоді останній шар класифікується вгорі. Так, наприклад, у конволюційній мережі для класифікації, де останній шар є шаром softmax, ми можемо інтерпретувати архітектуру як виконання нелінійної проекції на менший вимір, а потім робити багаточленну логістичну регресію (шар softmax) на цій проекції. Тож у певному сенсі стиснене уявлення наших даних дозволяє нам обійти прокляття розмірності. Знову ж таки, це одна інтерпретація, насправді прокляття розмірності насправді впливає на нейронні мережі, але не на тому самому рівні, як описані вище моделі.
SVM
SVM мають тенденцію не перенавантажувати стільки, скільки узагальнені лінійні моделі через надмірну регуляризацію, яка відбувається. Перегляньте цю публікацію SVM, Overfitting, прокляття розмірності для більш детальної інформації.
К-НН, К-значить
На K-середнє та K-NN сильно впливає прокляття розмірності, оскільки обидва вони використовують міру відстані L2 у квадраті. Зі збільшенням кількості розмірів збільшується і відстань між різними точками даних. Ось чому вам потрібно більше балів, щоб покрити більше місця, сподіваючись, що відстань буде більш описовою.
Сміливо запитайте конкретні дані про моделі, оскільки мої відповіді досить загальні. Сподіваюсь, це допомагає.