Kovaryans (veya korelasyon veya kosinüs), kosinüs kanunu vasıtasıyla kolayca ve doğal olarak öklid mesafesine dönüştürülebilir , çünkü öklid uzayında skaler bir üründür (= açısal bazlı benzerlik). İki değişken i ve j arasındaki kovaryansı ve bunların varyanslarını bilmek otomatik olarak değişkenler arasındaki d'yi bilmeyi gerektirir : . (Bu d 2 i jd2ben j= σ2ben+ σ2j- 2 c o vben jd2ben jher zamanki kareli Öklid mesafesi ile doğru orantılıdır : varyanslar ve kovaryans yerine karelerin toplamlarını ve çapraz çarpı toplamlarını kullanırsanız ikincisini elde edersiniz. Her iki değişken de elbette başlangıçta ortalanmalıdır: "kovaryanslardan" bahsetmek, kaldırılan araçlarla veri düşünmek için takma addır.)
Not, bu formül, negatif bir kovaryansın pozitif kovaryanstan daha büyük bir mesafe olduğu anlamına gelir (ve bu aslında geometrik bakış açısından, yani değişkenler konu uzayında vektör olarak görüldüğünde ) söz konusudur . Kovaryans işaretinin rol oynamasını istemiyorsanız, negatif işareti kaldırın. Negatif işareti göz ardı etmek "elle yamalama" işlemi değildir ve gerektiğinde garanti edilir: eğer cov matrisi pozitif kesin ise, abs (cov) matrisi de pozitif kesin olacaktır; ve dolayısıyla yukarıdaki formülle elde edilen mesafeler gerçek öklid mesafeleri olacaktır (öklid mesafesi belirli bir metrik mesafedir).
Öklid mesafeleri hiyerarşik kümelemeye göre evrenseldir : bu kümelemenin herhangi bir yöntemi öklid ya da kare öklid ile geçerlidir d . Ancak bazı yöntemler, örneğin ortalama bağlantı veya tam bağlantı, herhangi bir farklılık veya benzerlikle kullanılabilir (sadece metrik mesafelerle değil). Böylece bu yöntemleri doğrudan cov veya abs (cov) matrisi veya - örneğin, max (abs (cov)) - abs (cov) mesafe matrisi ile kullanabilirsiniz. Tabii ki, kümelenme sonuçları potansiyel olarak kullanılan (dis) benzerliğin kesin doğasına bağlıdır.