"Дискримінантний аналіз Фішера" - це просто LDA в ситуації, що склалася в 2 класи. Коли є лише два класи, обчислення вручну є здійсненними, і аналіз безпосередньо пов'язаний з множинною регресією. LDA є прямим поширенням ідеї Фішера на ситуацію будь-якої кількості класів і використовує матричні пристрої алгебри (наприклад, eigendecomposition) для її обчислення. Отже, термін "Дискримінантний аналіз Фішера" сьогодні можна розглядати як застарілий. Натомість слід використовувати "Лінійний дискримінантний аналіз". Дивіться також . Дискримінантний аналіз з 2+ класами (багатокласним) є канонічним за своїм алгоритмом (витягує дікримінанти як канонічні змінні); рідкісний термін "Канонічний дискримінантний аналіз"
Фішер використовував те, що тоді називалося "класифікаційними функціями Фішера" для класифікації об'єктів після обчислення дискримінантної функції. На сьогодні для класифікації об'єктів використовується більш загальний підхід Байєса в рамках процедури LDA.
На ваш запит на роз'яснення ЛДА я можу надіслати вам такі відповіді: вилучення в ЛДА , класифікація в ЛДА , ЛДА серед суміжних процедур . Також це , це , це питання та відповіді.
Так само, як ANOVA вимагає припущення рівних дисперсій, LDA вимагає припущення рівних дисперсійно-коваріаційних матриць (між вхідними змінними) класів. Це припущення є важливим для класифікації етапу аналізу. Якщо матриці суттєво відрізняються, спостереження, як правило, будуть віднесені до класу, де мінливість більша. Для подолання проблеми було винайдено QDA . QDA - це модифікація LDA, яка допускає вищевказану неоднорідність коваріаційних матриць класів.
Якщо у вас є неоднорідність (як виявлено, наприклад, тестом M Box) і у вас немає QDA під рукою, ви все одно можете використовувати LDA в режимі використання індивідуальних матриць коваріації (а не об'єднаної матриці) дискримінантів при класифікації . Це частково вирішує проблему, хоча і менш ефективно, ніж у QDA, оскільки - як вже зазначалося - це матриці між дискримінантами, а не між оригінальними змінними (які матриці відрізнялися).
Дозвольте залишити для аналізу ваші приклади.
Відповідь на відповідь та коментарі @ zyxue
LDA - це те, що ви визначили, що FDA є у вашій відповіді. LDA спочатку витягує лінійні конструкції (які називаються дискримінантами), які максимізують між розділеннями в межах, а потім використовує їх для проведення (гауссова) класифікації. Якби (як ви кажете) LDA не були пов'язані із завданням витягнути дискримінантів, LDA виявиться просто гауссовим класифікатором, назва "LDA" взагалі не знадобиться.
Це той етап класифікації, коли LDA передбачає як нормальність, так і дисперсію-коваріантну однорідність класів. Екстракції або «зниження розмірності» стадія LDA передбачає лінійність і ковариационную однорідність , два допущення разом становить «лінійну сепарабельном» здійсненні. (Ми використовуємо одиночну об'єднану матрицю для створення дискримінантів, які, таким чином, мають ідентифікацію, об'єднану в межах коваріаційної матриці класу, що дає нам право застосовувати один і той же набір дискримінантів для класифікації до всіх класів. Якщо всі s однакові, то сказане в межах- класні коваріації - це все одно, ідентичність; це право їх використання стає абсолютним.)SшSш
Гауссовий класифікатор (другий етап LDA) використовує правило Байєса для присвоєння спостереженням класам дискримінантів. Цей же результат може бути досягнутий завдяки так званій функції лінійної класифікації Фішера, яка безпосередньо використовує оригінальні функції. Однак підхід Байєса, який базується на дискримінантах, є дещо загальним, оскільки він дозволить використовувати окремі коваріаційні матриці дискримінантного класу, на додаток до способу використання однієї, об'єднаної. Крім того, це дозволить грунтувати класифікацію на підгрупі дискримінантів.
Якщо є лише два класи, обидва етапи LDA можна описати разом за один прохід, оскільки "вилучення запізнень" та "класифікація спостережень" зводяться до одного завдання.