Аналіз основних компонентів може використовувати матричне розкладання, але це лише інструмент для того, щоб потрапити.
Як би ви знайшли основні компоненти без використання матричної алгебри?
Що таке об'єктивна функція (мета) та які обмеження?
Аналіз основних компонентів може використовувати матричне розкладання, але це лише інструмент для того, щоб потрапити.
Як би ви знайшли основні компоненти без використання матричної алгебри?
Що таке об'єктивна функція (мета) та які обмеження?
Відповіді:
Не намагаючись дати повний праймер на PCA, з точки зору оптимізації, основна мета функції - коефіцієнт Релея . Матриця, що зображує в коефіцієнті, є (деяким кратним) матриці коваріації вибірки , де кожен є вектор функцій і є матрицею , так що й рядки є .
PCA прагне вирішити послідовність проблем оптимізації. Перша в послідовності - необмежена проблема
Оскільки, наведена вище необмежена проблема еквівалентна обмеженій задачі
Ось, звідки надходить алгебра матриці. Оскільки є симетричною позитивною напівфінітною матрицею (за побудовою!), Вона має власнезначне розкладання виду де - ортогональна матриця (так ) і - діагональна матриця з негативними записами така, що .
Отже, . Оскільки обмежена в задачі мати норму одиниці, то так і оскільки , в силу того, що є ортогональними.
Але, якщо ми хочемо максимально збільшити кількість при обмеженнях, що , то найкраще, що ми можемо зробити, - це встановити , тобто і для .
Тепер, підтримуючи відповідне , що ми шукали в першу чергу, отримуємо, що де позначає перший стовпець , тобто власний вектор , що відповідає найбільшого власного значення . Значення цільової функції також легко видно .
Решта основних векторів компонентів потім знаходять шляхом вирішення послідовності (індексованої ) задач на оптимізацію Отже, проблема однакова, за винятком того, що ми додаємо додаткове обмеження, що рішення має бути ортогональним для всіх попередніх рішень у послідовності. Це не важко розширити аргумент вище индуктивно , щоб показати , що рішення - го проблема, на самому ділі, , тим й власний вектор .
Рішення РСА також часто виражаються в термінах сингулярного розкладання в . Щоб зрозуміти , чому, нехай . Тоді і так (строго кажучи, до підписання фліп) і .
Основні компоненти знаходять, проектуючи на вектори основних компонентів. З щойно даної формулировки SVD видно, що
Простота представлення як основних компонентів векторів, так і самих головних компонентів з точки зору SVD матриці ознак є однією з причин того, що особливості SVD настільки помітні в деяких методах лікування PCA.
Рішення, представлене кардиналом, фокусується на матриці коваріації зразка. Інша відправна точка - помилка відновлення даних за допомогою q -вимірної гіперплани. Якщо p -вимірні точки даних є це потрібно вирішити
для матриці з ортонормальними стовпцями та . Це дає найкращу реконструкцію q- реконструкції, виміряну евклідовою нормою, і стовпці рішення є першими q основними компонентами векторів.
Для фіксованих рішенням для та (це регресія) є
Для зручності нотації припустимо, що були зосереджені в наступних обчисленнях. Тоді нам доведеться мінімізувати
над з ортонормальними стовпцями. Зверніть увагу, що - проекція на q -вимірний простір стовпців. Отже, задача еквівалентна мінімізації
над рангом Q проекцій . Тобто нам потрібно максимізувати
над рангом q проекцій , де - матриця вибіркової коваріації. Тепер
Помилка реконструкції передбачає ряд корисних узагальнень, наприклад, рідкісні головні компоненти або реконструкції низькомірними колекторами замість гіперпланів. Докладніше див. Розділ 14.5 в Елементах статистичного навчання .