Eşdeğerlik asla test edebileceğimiz bir şey değildir . Hipotezi düşünün:'H0:fx≠fy vs 'H1:fx=fy. NHST teorisi boş altında, biz seçebilir, söyler şey altında'H0veriye en uygun olanı. Bu, neredeyse her zaman dağıtımlara keyfi olarak yaklaşabileceğimiz anlamına gelir. Örneğin, eğer test etmek istersemfx∼ N( 0 , 1 ), ayrı dağılımlarına izin veren olasılık modeli f^x ve f^ysıfırın altında her zaman daha olası olacaktır , bu da kritik test varsayımlarının ihlalidir. Örnek olsa bileX= Y aynı şekilde, keyfi olarak 1'e yakın bir olasılık oranı alabilirim fy≈fx.
Veriler için uygun bir olasılık modeli biliyorsanız, alternatif modelleri sıralamak için cezalandırılmış bir bilgi kriteri kullanabilirsiniz. Bunun bir yolu, iki olasılık modelinin BIC'lerini kullanmaktır.'H0 ve 'H1. Normal bir olasılık modeli kullandım, ancak elle veya GLM'yi kullanarak herhangi bir maksimum olabilirlik prosedüründen kolayca bir BIC alabilirsiniz. Bu Stackoverflow direği , montaj dağıtımları için nitrit şekline sahiptir. Bunu yapmanın bir örneği burada:
set.seed(123)
p <- replicate(1000, { ## generate data under the null
x <- rnorm(100)
g <- sample(0:1, 100, replace=T)
BIC(lm(x~1)) > BIC(lm(x~g))
})
mean(p)
verir
> mean(p)
[1] 0.034
pburada null modelin BIC'sinin (ayrı modeller) alternatif modelden (eşdeğer model) daha iyi (daha düşük) oranıdır. Bu, istatistiksel testlerin nominal 0.05 seviyesine oldukça yakındır.
Öte yandan eğer alırsak:
set.seed(123)
p <- replicate(1000, { ## generate data under the null
x <- rnorm(100)
g <- sample(0:1, 100, replace=T)
x <- x + 0.4*g
BIC(lm(x~1)) > BIC(lm(x~g))
})
mean(p)
verir:
> mean(p)
[1] 0.437
NHST'de olduğu gibi, kesin sonuçlara varmadan önce simülasyonla araştırılması gereken ince güç sorunları ve yanlış pozitif hata oranları vardır.
Bence benzer (belki daha genel bir yöntem) her iki olasılık modeli altında tahmin edilen posterior karşılaştırmak için Bayes istatistikleri kullanıyor.