Під час курсу машинного навчання я дізнався, що одне поширене використання PCA ( Principal Component Analysis ) - це прискорити інші алгоритми машинного навчання. Наприклад, уявіть, що ви тренуєте логістичну модель регресії. Якщо у вас є навчальний набір для i від 1 до n, і виявляється, що розмір вашого вектора x дуже великий (скажімо, розміри), ви можете використовувати PCA, щоб отримати менший розмір (скажімо k розміри) має вектор z. Потім ви можете тренувати вашу логістичну регресійну модель на навчальному наборі ( z ( i ) , y ( i ) для i від 1 до n. Навчання цієї моделі буде швидше, оскільки ваш вектор функцій має менші розміри.
Однак я не розумію, чому ви не можете просто зменшити розмірність вашого функціонального вектора до k розмірів, просто вибравши k своїх функцій навмання та усунувши решту.
Z вектори - це лінійні комбінації ваших функціональних векторів. Оскільки вектори z приурочені до k-мірної поверхні, ви можете записати значення усунених ak як лінійну функцію k решти значень функції, і, таким чином, всі z можуть бути сформовані за допомогою лінійних комбінацій ваших k ознак. Тож чи не повинні модель, що навчається на тренувальному наборі з усуненими функціями, має таку ж потужність, як модель, що навчається на тренувальному наборі, розмір якого був зменшений PCA? Це просто залежить від типу моделі та чи покладається вона на якусь лінійну комбінацію?