İki olasılık dağılımının ne kadar benzer olduğunu ölçmenin birçok yolu vardır. Popüler olan yöntemler arasında (farklı çevrelerde):
Kolmogorov mesafesi: dağıtım fonksiyonları arasındaki sup-mesafe;
Kantorovich-Rubinstein mesafe: beklentileri arasındaki maksimum fark Lipschitz sabit fonksiyonların iki dağılımları wrt de olduğu ortaya çıkıyor, dağılım fonksiyonları arasındaki mesafe;
Sınırlı Lipschitz mesafesi: KR mesafesi gibi ancak fonksiyonların da en fazla değere sahip olması gerekir .
Bunların farklı avantajları ve dezavantajları vardır. Yalnızca 3. anlamda yakınsaklık aslında tam olarak dağılımdaki yakınlaşmaya karşılık gelir; 1. veya 2. anlamında yakınsama genel olarak biraz daha güçlüdür. (Özel olarak, olasılıkla, daha sonrayakınsak içinKolmogorov mesafe dağıtım değil. Ancak, eğer limit dağılımı sürekli ise, bu patoloji oluşmaz.)
Temel olasılık veya ölçü teorisi perspektifinden bakıldığında, 1. çok doğaldır çünkü bazı kümelerde olma ihtimallerini karşılaştırır. Öte yandan, daha karmaşık bir olasılık perspektifi, olasılıklardan çok beklentilere odaklanma eğilimindedir. Ayrıca, işlevsel analiz perspektifinden bakıldığında, bazı işlev alanlarına sahip dualiteye dayalı 2. veya 3. gibi mesafeler çok çekicidir, çünkü böyle şeylerle çalışmak için geniş bir matematiksel araç seti vardır.
Bununla birlikte, benim izlenim (yanlış olduğumda beni düzelt!) İstatistiklerde, Kolmogorov mesafesinin dağılımların benzerliğini ölçmenin genellikle tercih edilen bir yolu olduğu yönündedir. Bir nedeni tahmin edebilirim: eğer dağıtımlardan biri sonlu destekle ayrıksa - özellikle, bazı gerçek dünya verilerinin dağılımı ise - o zaman Kolmogorov'un model dağıtımına olan mesafesini hesaplamak kolaydır. (KR mesafesini hesaplamak biraz zor olurdu ve BL mesafesi pratik açıdan muhtemelen imkansız olurdu.)
Öyleyse benim sorum (nihayet), Kolmogorov mesafesini (veya başka bir mesafeyi) istatistiksel amaçlarla desteklemek için pratik veya teorik olarak başka sebepler var mı?