Це розширений кодом мій старий відповідь переміщений сюди з іншої теми .
Я тривалий час робив обчислення квадратної симетричної матриці попарно махаланобісних відстаней у SPSS за допомогою капелюшкового матричного підходу, використовуючи рішення системи лінійних рівнянь (бо це швидше, ніж інвертування коваріаційної матриці).
Я не користувач R, тому я просто спробував відтворити @ahfoss ' цей рецепт тут у SPSS разом із "моїм" рецептом на даних 1000 випадків на 400 змінних, і я знайшов свій шлях значно швидше.
H
H(n−1)X(X′X)−1X′X
Отже, по центру стовпців матриці даних обчисліть матрицю капелюхів, помножте на (n-1) і виконайте операцію, протилежну подвійному центруванню. Ви отримуєте матрицю відстаней у квадраті махаланобіса.
hh2h1h2cos
У наших налаштуваннях "двоцентрова" матриця - це конкретно матриця капелюхів (помножена на n-1), а не евклідові скалярні добутки, і отримана в результаті матриця квадратного відстані є таким чином квадратом махаланобіської відстані матриці, а не квадратом евклідової матриці відстані.
HH(n−1)H= {H,H,...}
D2mahal=H+H′−2H(n−1)
Код в SPSS і датчик швидкості нижче.
Цей перший код відповідає @ahfoss функції fastPwMahal
з процитував відповідь . Він рівнозначний йому математично. Але я обчислюю повну симетричну матрицю відстаней (за допомогою матричних операцій), а @ahfoss обчислює трикутник симетричної матриці (елемент за елементом).
matrix. /*Matrix session in SPSS;
/*note: * operator means matrix multiplication, &* means usual, elementwise multiplication.
get data. /*Dataset 1000 cases x 400 variables
!cov(data%cov). /*compute usual covariances between variables [this is my own matrix function].
comp icov= inv(cov). /*invert it
call svd(icov,u,s,v). /*svd
comp isqrcov= u*sqrt(s)*t(v). /*COV^(-1/2)
comp Q= data*isqrcov. /*Matrix Q (see ahfoss answer)
!seuclid(Q%m). /*Compute 1000x1000 matrix of squared euclidean distances;
/*computed here from Q "data" they are the squared Mahalanobis distances.
/*print m. /*Done, print
end matrix.
Time elapsed: 3.25 sec
Далі йде моя модифікація, щоб зробити це швидше:
matrix.
get data.
!cov(data%cov).
/*comp icov= inv(cov). /*Don't invert.
call eigen(cov,v,s2). /*Do sdv or eigen decomposition (eigen is faster),
/*comp isqrcov= v * mdiag(1/sqrt(s2)) * t(v). /*compute 1/sqrt of the eigenvalues, and compose the matrix back, so we have COV^(-1/2).
comp isqrcov= v &* (make(nrow(cov),1,1) * t(1/sqrt(s2))) * t(v). /*Or this way not doing matrix multiplication on a diagonal matrix: a bit faster .
comp Q= data*isqrcov.
!seuclid(Q%m).
/*print m.
end matrix.
Time elapsed: 2.40 sec
X(X′X)−1X′(X′X)−1X′solve(X'X,X')
matrix.
get data.
!center(data%data). /*Center variables (columns).
comp hat= data*solve(sscp(data),t(data))*(nrow(data)-1). /*hat matrix, and multiply it by n-1 (i.e. by df of covariances).
comp ss= diag(hat)*make(1,ncol(hat),1). /*Now using its diagonal, the leverages (as column propagated into matrix).
comp m= ss+t(ss)-2*hat. /*compute matrix of squared Mahalanobis distances via "cosine rule".
/*print m.
end matrix.
[Notice that if in "comp ss" and "comp m" lines you use "sscp(t(data))",
that is, DATA*t(DATA), in place of "hat", you get usual sq.
euclidean distances]
Time elapsed: 0.95 sec