Коваріацію (або кореляцію чи косинус) можна легко і природно перетворити на евклідову відстань за допомогою закону косинусів , оскільки це скалярний добуток (= подібність на основі кута) в евклідовому просторі. Знання коваріації між двома змінними i та j , а також їх відхилення автоматично передбачає знання d між змінними: . (Що d 2 i jг2i j= σ2i+ σ2j- 2 c o vi jг2i jпрямо пропорційна звичайній відстані евклідового квадрата : ви отримуєте останнє, якщо замість дисперсій та коваріації використовуєте суми квадратів та суму перехресних продуктів. Обидві змінні повинні бути звичайно зосереджені спочатку: говорити про "коваріації" - це псевдонім для роздумів про дані з вилученими засобами.)
Зауважимо, ця формула означає, що від'ємна коваріація більша відстань, ніж позитивна коваріація (і це справді так з геометричної точки зору, тобто коли змінні розглядаються як вектори в предметному просторі ). Якщо ви не хочете, щоб знак коваріації відігравав роль, скасуйте негативний знак. Ігнорування негативного знаку не є операцією «латання рукою», і це потрібно, коли це потрібно: якщо матриця cov є позитивно визначеною, abs (cov) матриця буде також позитивно визначеною; і отже, відстані, отримані за вищенаведеною формулою, будуть істинними евклідовими відстанями (евклідова відстань - це особливий вид метричної відстані).
Евклідові відстані є універсальними щодо ієрархічної кластеризації : будь-який метод такої кластеризації є дійсним або евклідовим, або квадратним евклідовим d . Але деякі методи, наприклад, середня або повна зв'язок, можуть використовуватися з будь-якою несхожістю або подібністю (не тільки з метричними відстанями). Таким чином, ви можете використовувати такі методи безпосередньо з cov або abs (cov) матрицею або - лише наприклад - з max (abs (cov)) - abs (cov) дистанційною матрицею. Звичайно, результати кластеризації потенційно залежать від точного характеру використовуваної (не) подібності.