Заслуга цієї відповіді належить @ttnphns, який пояснив усе у коментарях вище. Я все ж хотів би дати розширену відповідь.
На ваше запитання: Чи будуть результати LDA щодо стандартизованих та нестандартних функцій точно однаковими? --- відповідь - так . Я спочатку наведу неформальний аргумент, а потім продовжую деяку математику.
Уявіть двовимірний набір даних, показаний у вигляді діаграми розкидання на одній стороні повітряної кулі (оригінальна картина з повітряної кулі, зроблена звідси ):
Тут червоні точки - один клас, зелені - інший клас, а чорні - межа класу LDA. Тепер масштаб осей або відповідає розтягуванню повітряної кулі по горизонталі або вертикалі. Інтуїтивно зрозуміло, що навіть незважаючи на те, що нахил чорної лінії зміниться після такого розтягування, класи будуть точно такими ж відокремленими, як і раніше, і відносне положення чорної лінії не зміниться. Кожне тестове спостереження буде віднесено до того ж класу, що і до розтягування. Тож можна сказати, що розтягнення не впливає на результати ЛДА.xy
Тепер математично LDA знаходить набір дискримінантних осей, обчислюючи власні вектори , де і знаходяться в межах і між класом розсіяти матриці. Рівнозначно, це узагальнені власні вектори узагальненої задачі про власне значення .W−1BWBBv=λWv
Розглянемо централізовану матрицю даних зі змінними в стовпцях та точками даних у рядках, так що загальна матриця розсіювання задається . Стандартизація даних означає масштабування кожного стовпця на певне число, тобто його заміну на , де являє собою діагональну матрицю з коефіцієнтами масштабування (звороти стандартних відхилень кожного стовпця) на діагоналі. Після такого масштабування матриця розсіювання зміниться так: , і те саме перетворення відбудеться і зXT=X⊤XXXnew=XΛΛTnew=ΛTΛWnew та .Bnew
Нехай є власним вектором вихідної проблеми, тобтоЯкщо ми помножимо це рівняння на зліва і вставимо з обох сторін перед , отримаємо тобто що означає, щоv
Bv=λWv.
ΛΛΛ−1vΛBΛΛ−1v=λΛWΛΛ−1v,
BnewΛ−1v=λWnewΛ−1v,
Λ−1vє власним вектором після масштабування з точно таким же власним значенням як раніше.
λ
Так що дискримінантна вісь (задана власним вектором) зміниться, але її власне значення, яке показує, наскільки розділені класи, залишиться точно таким же. Більше того, проекція на цю вісь, спочатку задана , тепер буде задана , тобто залишиться точно таким же (можливо, до масштабуючого коефіцієнта).XvXΛ(Λ−1v)=Xv
in general a "Z-score normalization" (or standardization) of features won't be necessary, even if they are measured on completely different scales
Ні, це твердження невірне. Питання стандартизації з LDA такий же, як у будь-якого багатоваріантного методу. Наприклад, PCA. Відстань махаланобіса не має нічого спільного з цією темою.