Запитання з тегом «discriminant-analysis»

Лінійний дискримінантний аналіз (LDA) - метод зменшення розмірності та класифікаційний метод. Він знаходить низькомірний підпростір з найсильнішим розділенням класів і використовує його для класифікації. Використовуйте цей тег і для квадратичного DA (QDA).

2
Логістична регресія проти LDA як двокласні класифікатори
Я намагаюся обернути голову навколо статистичної різниці між лінійним дискримінантним аналізом та логістичною регресією . Чи правильно я розумію, що для задачі класифікації двох класів LDA прогнозує дві функції нормальної щільності (по одній для кожного класу), яка створює лінійну межу, де вони перетинаються, тоді як логістична регресія лише передбачає функцію …

2
Чому LDA, що вивчає Scitit Python, не працює належним чином і як він обчислює LDA за допомогою SVD?
Я використовував лінійний дискримінантний аналіз (LDA) з scikit-learnбібліотеки машинного навчання (Python) для зменшення розмірності і трохи цікавився результатами. Мені зараз цікаво, чим scikit-learnзаймається LDA , щоб результати виглядали інакше, ніж, наприклад, ручний підхід або LDA, зроблені в Р. Було б чудово, якби хтось міг дати мені тут деяку інформацію. Що …

2
Три варіанти дискримінаційного аналізу: відмінності та способи їх використання
Чи може хтось пояснити відмінності та навести конкретні приклади, як використовувати ці три аналізи? LDA - лінійний дискримінантний аналіз FDA - дискримінантний аналіз Фішера QDA - Квадратичний дискримінантний аналіз Я шукав всюди, але не міг знайти реальних прикладів з реальними значеннями, щоб побачити, як використовуються ці аналізи та обчислюють дані, …

1
PCA, LDA, CCA та PLS
Як пов’язані PCA, LDA, CCA та PLS? Всі вони здаються "спектральними" та лінійними алгебраїчними і дуже добре зрозумілими (скажімо, 50+ років теорії, побудованої навколо них). Вони використовуються для дуже різних речей (PCA для зменшення розмірності, LDA для класифікації, PLS для регресії), але вони все ще відчувають себе дуже тісно пов'язаними.

2
Чи є сенс поєднувати PCA та LDA?
Припустимо, у мене є набір даних для контрольованої статистичної задачі класифікації, наприклад, через класифікатор Байєса. Цей набір даних складається з 20 функцій, і я хочу звести його до двох функцій за допомогою методів зменшення розмірності, таких як аналіз основних компонентів (PCA) та / або лінійний дискримінантний аналіз (LDA). Обидві методи …

4
Який взаємозв'язок між регресією та лінійним дискримінантним аналізом (LDA)?
Чи існує взаємозв'язок між регресією та лінійним дискримінантним аналізом (LDA)? У чому їх схожість та відмінності? Чи має якусь різницю, якщо є два класи або більше двох класів?

1
Як LDA, класифікаційна техніка, також виконує функції зменшення розмірності, як PCA
У цій статті автор пов'язує лінійний дискримінантний аналіз (LDA) з аналізом основних компонентів (PCA). Зі своїми обмеженими знаннями я не в змозі простежити, як LDA може бути дещо схожим на PCA. Я завжди вважав, що LDA - це форма алгоритму класифікації, схожа на логістичну регресію. Я буду вдячний за допомогу …

1
Обчислити та графік межі рішення LDA
Я побачив графік LDA (лінійний дискримінантний аналіз) з межею прийняття рішень з "Елементів статистичного навчання" : Я розумію, що дані проектуються на нижній розмірний підпростір. Однак я хотів би знати, як ми отримуємо межі рішення у вихідному вимірі, щоб я міг проектувати межі рішення на нижній розмірний підпростір (подобається чорні …

1
Як MANOVA пов'язаний з LDA?
У кількох місцях я побачив твердження, що MANOVA схожа на ANOVA плюс лінійний дискримінантний аналіз (LDA), але це завжди робилося рукою, що розмахує рукою. Я хотів би знати, що саме це має означати. Я знайшов різні підручники, що описують усі деталі обчислень MANOVA, але, здається, дуже важко знайти хорошу загальну …

2
Як лінійний дискримінантний аналіз зменшує розміри?
Є слова з "Елементи статистичного навчання" на сторінці 91: K-центроїди в p-мірному вхідному просторі охоплюють не більше K-1 розмірного підпростору, і якщо p набагато більший за K, це буде значним зниженням розмірності. У мене є два питання: Чому K-центроїди в p-мірному вхідному просторі охоплюють щонайбільше K-1 розмірне підпростір? Як розташовані …

2
Що таке "коефіцієнти лінійних дискримінантів" у LDA?
В R, я використовую ldaфункцію з бібліотеки , MASSщоб зробити класифікацію. Як я розумію, LDA вхід xxx буде присвоєний міткою yyy , яка максимізує p(y|x)p(y|x)p(y|x) , правда? Але коли я підходять до моделі, в якій x=(Lag1,Lag2)x=(Lag1,Lag2)x=(Lag1,Lag2)y=Direction,y=Direction,y=Direction, я не зовсім розумію вихід lda, Редагувати: щоб відтворити вихідний результат, спочатку запустіть: library(MASS) …

3
Колінеарні змінні в навчанні багатошарового LDA
Я готую багатокласний класифікатор LDA з 8 класами даних. Під час виконання тренінгу я отримую попередження: " Змінні колінеарні " Я отримую точність тренувань понад 90% . Я використовую бібліотеку scikits-learn у Python, щоб тренувати та перевіряти дані класу Multi-Class. Я також отримую гідну точність тестування (близько 85% -95% ). …

3
Дискримінаційний аналіз проти логістичної регресії
Я знайшов деякі плюси дискримінаційного аналізу, і у мене є питання щодо них. Так: Коли класи добре розділені, оцінки параметрів логістичної регресії напрочуд нестабільні. Коефіцієнти можуть піти в нескінченність. LDA не страждає від цієї проблеми. Якщо кількість ознак невелика і розподіл предикторів ХХX приблизно нормальний у кожному з класів, лінійна …

2
Чи можемо ми використовувати категоричну незалежну змінну в дискримінантному аналізі?
У дискримінантному аналізі залежна змінна є категоричною, але чи можу я використовувати категоричну змінну (наприклад, житловий стан: сільський, міський) разом з якоюсь іншою суцільною змінною як незалежну змінну в лінійному дискримінантному аналізі?

1
Виведення загальної (в межах класу + між класом) матриці розсіювання
Я спішився з методами PCA та LDA, і я застряг у певній точці, у мене таке відчуття, що це так просто, що я не бачу цього. Матриці розсіювання в межах класу ( ) та між класом ( S B ) визначаються як:SWSWS_WSБSBS_B SW= ∑i = 1С∑t = 1N( хiт- мкi) …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.