Прогноз Байєса щодо ймовірності членства в задньому класі LDA також слід логістичній кривій.
[Ефрон, Б. Ефективність логістичної регресії порівняно з нормальним дискримінантним аналізом, J Am Stat Assoc, 70, 892-898 (1975).]
Хоча цей документ показує, що відносна ефективність ЛДА перевершує ЛР, якщо допущення ЛДА виконуються (Посилання: Довідка Ефрона вище, остання точка @tthnps), згідно з Елементами статистичного навчання на практиці майже немає різниці.
[Хасті, Т. і Тібшірані, Р. і Фрідман, Дж. Елементи статистичного навчання; Обмін даними, Inference andPrediction Springer Verlag, Нью-Йорк, 2009]
Ця надзвичайно підвищена відносна ефективність ЛДА здебільшого трапляється в асимптотичних випадках, коли абсолютна помилка в будь-якому випадку практично незначна.
[Harrell, FE & Lee, KL Порівняння дискримінації дискримінантного аналізу та логістичної регресії за багатовимірною нормальністю, Biostatistics: Statistics in Biomedical, Public Health and Environmental Sciences, 333-343 (1985).]
Хоча я на практиці стикався з великими розмірами малих розмірів вибірки, коли ЛДА здається вищим (незважаючи на те, що як багатоваріантна нормальність, так і припущення про рівну коваріантну матрицю явно не виконуються).
[ Белеїт, С .; Гейгер, К .; Кірш, М .; Соботка, С.Б .; Schackert, G. & Salzer, R. Raman спектроскопічне оцінювання тканин астроцитоми: використовуючи м'яку довідкову інформацію., Anal Bioanal Chem, 400, 2801-2816 (2011). DOI: 10.1007 / s00216-011-4985-4 ]
Але зауважте, що в нашому документі LR, можливо, бореться з проблемою, що можна знайти напрямки з (майже) ідеальною відокремлюваністю. З іншого боку, LDA може бути менш сильним.
Відомі припущення щодо LDA потрібні лише для доказу оптимальності. Якщо їх не виконати, процедура все одно може бути хорошою евристикою.
Різниця, яка для мене важлива на практиці, оскільки проблеми класифікації, над якими я працюю іноді / часто виявляються, насправді зовсім не такі чіткі проблеми з класифікацією: LR легко можна виконати з даними, де посилання має проміжний рівень належності до класу. Зрештою, це техніка регресії .
[див. папір, пов’язаний вище]
Можна сказати, що LR концентрується більше, ніж LDA на прикладах біля межі класу, і в основному ігнорує випадки на «задній частині» розподілів.
Це також пояснює, чому він менш чутливий до людей, що вижили (тобто тих, хто знаходиться на задній стороні), ніж ЛДА.
(підтримуючі векторні машини були б класифікатором, який іде в цьому напрямку до самого кінця: тут все, крім випадків на кордоні, не враховується)