Bahsedilen 3 yöntemin nasıl çalıştığının genel bir açıklaması.
Chi-Squared yöntemi, bir kutudaki gözlem sayısını, dağıtıma bağlı olarak depoda olması beklenen sayı ile karşılaştırarak çalışır. Kesikli dağılımlar için kutular genellikle bunların ayrı olasılıkları veya kombinasyonlarıdır. Sürekli dağıtımlar için bölmeleri oluşturmak üzere kesme noktaları seçebilirsiniz. Bunu uygulayan birçok işlev, bölmeleri otomatik olarak oluşturur, ancak belirli alanlarda karşılaştırma yapmak isterseniz kendi bölmelerinizi oluşturabilmeniz gerekir. Bu yöntemin dezavantajı, teorik dağılım ile değerleri aynı bölmeye koyan ampirik veriler arasındaki farkların tespit edilmeyeceğidir, eğer teorik olarak 2 ile 3 arasındaki sayılar aralık içine yayılsa, bir örnek yuvarlanır (2.34296 gibi değerleri görmeyi umuyoruz),
KS test istatistiği, karşılaştırılan 2 Kümülatif Dağıtım Fonksiyonu arasındaki maksimum mesafedir (genellikle teorik ve ampirik). 2 olasılık dağılımının sadece 1 kavşak noktası varsa, o zaman 1 eksi maksimum mesafe 2 olasılık dağılımı arasındaki çakışma alanıdır (bu, bazı kişilerin ölçülmekte olan şeyi görselleştirmesine yardımcı olur). Teorik dağılım fonksiyonu ve EDF aynı grafik üzerinde çizim düşünün sonra 2 "eğrileri" arasındaki mesafeyi ölçmek, en büyük fark test istatistik ve null doğru olduğunda bu değerlerin dağılımı ile karşılaştırılır. Bu, farklılıkları yakalayan dağılımın veya 1 dağılımın diğerine göre kaydırılmış veya gerilmiş şeklidir.1n
Anderson-Darling testi, KS testi gibi CDF eğrileri arasındaki farkı da kullanır, ancak maksimum farkı kullanmak yerine, 2 eğri arasındaki toplam alanın bir işlevini kullanır (aslında farklılıkları kareler, ağırlıklandırır, böylece kuyruklar daha fazla etki, daha sonra dağıtımların alanı üzerinde entegre olur). Bu, aykırı değerlere KS'den daha fazla ağırlık verir ve ayrıca birkaç küçük fark varsa (KS'nin vurgulayacağı 1 büyük farkla karşılaştırıldığında) daha fazla ağırlık verir. Bu, önemsiz olduğunu düşündüğünüz farklılıkları (hafif yuvarlama, vb.) Bulmak için teste güç verebilir. KS testi gibi bu da verilerden parametreleri tahmin etmediğinizi varsayar.
Son 2'nin genel fikirlerini gösteren bir grafik:
bu R koduna dayanarak:
set.seed(1)
tmp <- rnorm(25)
edf <- approxfun( sort(tmp), (0:24)/25, method='constant',
yleft=0, yright=1, f=1 )
par(mfrow=c(3,1), mar=c(4,4,0,0)+.1)
curve( edf, from=-3, to=3, n=1000, col='green' )
curve( pnorm, from=-3, to=3, col='blue', add=TRUE)
tmp.x <- seq(-3, 3, length=1000)
ediff <- function(x) pnorm(x) - edf(x)
m.x <- tmp.x[ which.max( abs( ediff(tmp.x) ) ) ]
ediff( m.x ) # KS stat
segments( m.x, edf(m.x), m.x, pnorm(m.x), col='red' ) # KS stat
curve( ediff, from=-3, to=3, n=1000 )
abline(h=0, col='lightgrey')
ediff2 <- function(x) (pnorm(x) - edf(x))^2/( pnorm(x)*(1-pnorm(x)) )*dnorm(x)
curve( ediff2, from=-3, to=3, n=1000 )
abline(h=0)
Üst grafik, standart normalin CDF'sine kıyasla standart normalden alınan bir numunenin EDF'sini KS statüsünü gösteren bir çizgi ile gösterir. Orta grafik daha sonra 2 eğrideki farkı gösterir (KS statüsünün nerede oluştuğunu görebilirsiniz). Alt, daha sonra kare, ağırlıklı farktır, AD testi bu eğrinin altındaki alana dayanır (her şeyi doğru bulduğumu varsayarsak).
Diğer testler bir qqplot'taki korelasyona, qqplot'taki eğime bakar, ortalamaları, var ve diğer istatistikleri momentlere göre karşılaştırır.