Сума дисперсій усіх компонентів ПЛС зазвичай менше 100%.
Існує багато варіантів часткових найменших квадратів (PLS). Тут ви використовували PLS регресію одновимірної змінної відповіді на кілька змінних ; цей алгоритм традиційно відомий як PLS1 (на відміну від інших варіантів, див. Rosipal & Kramer, 2006, Огляд та останні досягнення в часткових найменших квадратах для стислого огляду). Пізніше PLS1 виявився еквівалентним більш елегантній рецептурі під назвою SIMPLS (див. Посилання на платню Jong 1988 у Rosipal & Kramer). Вид, наданий SIMPLS, допомагає зрозуміти, що відбувається в PLS1.yX
Виявляється, що PLS1 робить, це знайти послідовність лінійних проекцій таким чином, що:ti=Xwi
- Коваріація між та максимальна;yti
- Усі вектори ваги мають одиничну довжину, ;∥wi∥=1
- Будь-які два компоненти PLS (ака-векторів оцінки) та є некорельованими.titj
Зауважте, що весові вектори не повинні бути (і не є) ортогональними.
Це означає, що якщо складається з змінних і ви знайшли компонентів PLS, то ви знайшли неортогональну основу з некоррельованими проекціями на базисні вектори. Можна математично довести , що в такій ситуації сума відхилень всіх цих прогнозів буде менше , то загальна дисперсія . Вони були б рівними, якби ваги векторів були ортогональними (наприклад, у PCA), але в PLS це не так.Xk=1010X
Я не знаю жодного підручника чи документа, який прямо обговорює це питання, але я раніше пояснював це в контексті лінійного дискримінантного аналізу (LDA), який також дає ряд некоординованих проекцій на неортогональні одиничні вектори ваги, дивіться тут : Частка поясненої дисперсії в PCA та LDA .