Класифікація LDA йде наступним чином (підхід до правила Байєса). [Про вилучення дискримінантів можна подивитися тут .]
Відповідно до теореми Байєса, шукана ймовірність того, що ми маємо справу з класом , спостерігаючи в даний час точку є , деx P ( k | x ) = P ( k ) ∗ P ( x | k ) / P ( x )kxП( k | x ) = P( k ) ∗ P( х | к ) / П( х )
k P ( x ) x P ( x | k ) x k kП( k ) - безумовна (фонова) ймовірність класу ; - безумовна (фонова) ймовірність точки ; - ймовірність присутності точки у класі , якщо клас, що знаходиться у виправі, дорівнює .kP(x)xP(x|k)xkk
"Спостереження в даний час точки " є базовою умовою, , і знаменник можна опустити. Таким чином, .P ( x ) = 1 P ( k | x ) = P ( k ) ∗ P ( x | k )xP(x)=1P(k|x)=P(k)∗P(x|k)
x k P ( k ) P ( k ) P ( k | x ) x k P ( x | k )P(k) - це попередня (доаналітична) ймовірність того, що нативний клас для дорівнює ; задається користувачем. Зазвичай за замовчуванням всі класи отримують рівні = 1 / number_of_classes. Для того, щоб обчислити , тобто задню (пост-аналітичну) ймовірність того, що нативний клас для дорівнює , слід знати .xkP(k)P(k)P(k|x)xkP(x|k)
P ( x | k ) x k P D F ( x | k ) p pP(x|k) - ймовірність сама по собі - не можна знайти для дискримінантів, головним питанням LDA є суцільні, а не дискретні змінні. Кількість, що виражає у цьому випадку та пропорційна їй - щільність ймовірності (функція PDF). Цим нам потрібно обчислити PDF для точки у класі , у -вимірному нормальному розподілі, утвореному значеннями дискримінантів. [Див. Багатовимірний звичайний розподіл у Вікіпедії]P(x|k)xkPDF(x|k)pp
PDF(x|k)=e−d/2(2π)p/2|S|−−−√)
де - квадратна відстань махаланобіса [Див. Вікіпедія Махаланобіська відстань] у просторі дискримінантів від точки до центру класу; - коваріаційна матриця між дискримінантами , що спостерігається в межах цього класу.x SdxS
Обчисліть таким чином для кожного з класів. для точки та класу виражають шукане для нас . Але з вищезазначеним резервом, що PDF не є ймовірністю сама по собі, лише пропорційною їй, ми повинні нормалізувати , поділяючи на суму s над усіма класами. Наприклад, якщо всього 3 класи, , , , тоPDF(x|k)P(k)∗PDF(x|k)xkP(k)∗P(x|k)P(k)∗PDF(x|k)P(k)∗PDF(x|k)klm
P(k|x)=P(k)∗PDF(x|k)/[P(k)∗PDF(x|k)+P(l)∗PDF(x|l)+P(m)∗PDF(x|m)]
Точка LDA присвоюється класу, для якого є найвищим.xP(k|x)
Примітка. Це був загальний підхід. Багато програм LDA за замовчуванням використовують об'єднану матрицю класу для всіх класів у формулі для PDF вище. Якщо так, формула значно спрощується, оскільки таке у LDA є матрицею ідентичності (див. Нижню виноску тут ), а отже, і перетворюється на евклідову відстань у квадраті (нагадування: об'єднане в межах класу ми говоримо, - це коваріації між дискримінантами, а не між вхідними змінними, матриця яких зазвичай позначається як ).SS|S|=1dSSw
Доповнення . Перед тим, як вищевказаний підхід до правила класифікації Байєса був введений в LDA, Фішер, піонер LDA, запропонував обчислити так звані функції лінійної класифікації Фішера для класифікації точок у LDA. Для точки оцінка функції приналежності до класу є лінійною комбінацією , де є змінними провісника в аналізі.xkbkv1V1x+bkv2V2x+...+ConstkV1,V2,...Vp
Коефіцієнт , - кількість класів, а - елемент об'єднаного розсіювача класу матриця змінних.bkv=(n−g)∑pwsvwV¯kwgsvwp V
Constk=log(P(k))−(∑pvbkvV¯kv)/2 .
Точка присвоюється класу, для якого її бал є найвищим. Результати класифікації, отримані цим методом Фішера (який обходить вилучення дискримінантів, що беруть участь у складному ейгендекомпозиції), ідентичні тим, отриманим методом Байєса, лише якщо об'єднана матриця коваріації класу використовується методом Байєса на основі дискримінантів (див. "Примітка" вище), і всі дискримінанти використовуються в класифікації. Метод Байєса є більш загальним, оскільки він дозволяє використовувати і окремі матриці класу.x