Olasılık ilkesinin * gerçekten * önemli olduğu bir örnek?


20

Orantılı olasılıklara sahip iki farklı savunulabilir testin, biri p-değerlerinin birbirinden büyüklük sırası olduğu, ancak alternatiflerin gücünün benzer olduğu, belirgin şekilde farklı (ve eşit derecede savunulabilir) çıkarımlara yol açabileceği bir örnek var mı?

Gördüğüm tüm örnekler çok aptalca, bir binomu negatif bir binom ile karşılaştırıyor, burada birincinin p değeri% 7 ve ikinci% 3'tür, ki bunlar sadece birbirinden farklı olan rastgele eşikler üzerinde ikili kararlar veriyor % 5 (bu arada, çıkarım için oldukça düşük bir standarttır) gibi önem taşır ve iktidara bakmaya bile zahmet etmez. Örneğin, eşiği% 1 olarak değiştirirsem, her ikisi de aynı sonuca götürür.

Daha farklı ve savunulabilir çıkarımlara yol açacağı bir örnek görmedim . Böyle bir örnek var mı?

Soruyorum çünkü bu konuya çok fazla mürekkep harcadığımı gördüm, sanki Olabilirlik İlkesi istatistiksel çıkarımın temellerinde temel bir şeymiş gibi. Fakat eğer en iyi örnek yukarıdaki gibi aptalca örnekse, ilke tamamen önemsiz görünmektedir.

Bu yüzden, çok zorlayıcı bir örnek arıyorum, eğer bir kişi LP'yi takip etmezse, kanıt ağırlığı ezici bir şekilde bir test verilen bir yöne işaret eder, ancak, orantılı olasılıkla farklı bir testte, kanıt ağırlığı ezici bir şekilde zıt bir yöne işaret ediyor ve her iki sonuç da mantıklı görünüyor.

İdeal olarak, aynı alternatifi saptamak için orantılı olasılıklar ve eşdeğer güç ile karşı gibi testler gibi keyfi olarak çok uzak, ama mantıklı cevaplara sahip olabileceğimizi gösterebiliriz .p=0.1p=1010

Not: Bruce'un cevabı soruya hiç değinmiyor.


5
Anlamlılık testi yaparken, eşiği değiştirerek her zaman karar değiştirilebilir. Bu nedenle ne demek istediğinizi "belirgin", "aptal" veya "zorlayıcı" olarak açıklayabilir misiniz? BTW, Wikipedia makalesini okuyor gibi görünüyorsunuz .
whuber

2
CV'ye hoş geldiniz, @statslearner. Karşıtlığı görmek istediğiniz olasılık ilkesini kullanmayan çıkarımda bir veya daha fazla özel yaklaşım örneği verebilir misiniz?
Alexis

1
@whuber ideal olarak, p-değerlerini kullanmak istiyorsanız, karşı gibi keyfi olarak farklı cevaplar oluşturabileceğinizi görmek istiyorum ve her iki hesaplama da savunulabilir görünüyor. p = 10 - 5p=0.5p=105
İstatistik

3
Bu yorumu takip edemem çünkü hiçbir anlam ifade etmiyor. Ne olursa olsun, Wikipedia örneğinde verilen sayıları değiştirmeyi düşündünüz mü? p=105
whuber

6
Pratik sonuçlarla önemli fark, durdurma kurallarının işlenmesidir: LP altında önemli değil, LP'nin dışında. Ayrıntılar için Berger ve Wolpert'e (1987) bakın.
Xi'an

Yanıtlar:


7

Bir nokta null hipotezi doğruysa ancak kadar örneklemeyi sürdürdüğü varsayımsal bir durumu düşünün (bu her zaman er ya da geç olacak, yani olasılık 1 ile olacaktır) ve sonra denemeyi durdurmaya ve null değerini reddetmeye karar verir. Bu kuşkusuz aşırı bir durma kuralıdır, ancak argüman uğruna düşünün.p<0.05

Bu moronik prosedür% 100 Tip I hata oranına sahip olacaktır, ancak Olabilirlik İlkesine göre yanlış bir şey yoktur.

Bunun "gerçekten" önemli sayıldığını söyleyebilirim. Elbette bu argümandaki herhangi bir seçebilirsiniz . Bayesliler, isterse Bayes faktörünün sabit bir kesimini kullanabilirler. Aynı mantık geçerlidir. Buradaki ana ders, LP'ye bağlı kalamayacağınız ve hata oranı garantisine sahip olamayacağınızdır . Ücretsiz öğle yemeği yoktur.α


4
Ben de bu örneği düşünüyordum. Ama bundan bahsetmedim çünkü gerçekten moronik. Ama aslında, pratikte dolaylı ve gayri resmi olarak olan şey budur.
Sextus Empiricus

1
Örneğinizdeki 2 istatistik ve olasılıkları nelerdir? Neg. binom vs vs binom davası: 1) istatistik 1, 3 kafaya kadar deneme sayısı, olasılık binom; 2) istatistik 2, n denemede başkan sayısı, benzerlik binomail. Örneğinizde, iki istatistiğin ne olduğunu ve orantılı olasılıkları olup olmadığını görmüyorum.
statslearner2

1
Örneğinizde muhtemelen "binom ile orantılı olduğundan şüphe duymadığım p <0.05'e kadar deneme sayısı" olurdu, bu yüzden örneğin geçerli olduğundan emin değilim, Amip.
statslearner2

1
Olasılık ilkesinin "bunda yanlış bir şey yok" dediğini sanmıyorum. Olabilirlik ilkesi kötü prosedürleri filtreler. Prosedürün olabilirlik ilkesine uymaması gerçeği, olabilirlik ilkesi tarafından onaylananla aynı değildir . Muhtemelen olabilirlik ilkesine uymayan bu sıralı test probleminin Bayes analizi, tarif ettiğiniz "moronik" prosedürü uygulamadığı için mükemmel derecede ince özelliklere sahiptir.
Guy

3
@amoeba , alternatifin altında veya altında , ile . Bayes faktörünün günlüğünün kabaca , burada her zamanki testi istatistiğidir. Bayes faktörü büyük olduğunda reddetme, . Null altında, bunun sıralı test ortamında gerçekleşmesi garanti edilmez (eğer yinelenen logaritma yasası); bu nedenle Bayes prosedürü tarif ettiğiniz sorunun kurbanı olmayacaktır. θ = 0 Y iN ( θ , 1 ) 1θN(0,τ1)θ=0YiN(θ,1)ZnZ1| Zn| >O(12[log(τ/n)+Zn2]ZnZ1|Zn|>O(logn)
adam

4

Feragatname: Bu cevabın tüm argümanın merkezinde olduğuna inanıyorum, bu yüzden tartışmaya değer, ancak sorunu tam olarak araştırmadım. Bu nedenle, düzeltmeleri, düzeltmeleri ve yorumları memnuniyetle karşılıyoruz.

En önemli husus, sıralı olarak toplanan verilerle ilgilidir. Örneğin, ikili sonuçlar gözlemlediğinizi ve 10 başarı ve 5 başarısızlık gördüğünüzü varsayalım. Olasılık ilkesi , 10 başarı (negatif binomiyal) olana veya 10 deneme (binomiyal) olan 15 deneme gerçekleştirene kadar veri toplamadan bağımsız olarak başarı olasılığı konusunda aynı sonuca varmanız gerektiğini söylüyor .

Bu neden önemli?

Çünkü olabilirlik ilkesine göre (veya en azından bunun belirli bir yorumuna göre), veri toplamayı bırakacağınız zaman, çıkarsama araçlarınızı değiştirmek zorunda kalmadan verilerin etkilenmesine izin vermek tamamen iyidir.

Sıralı Yöntemlerle Çatışma

Çıkarımsal araçlarınızı değiştirmeden veri toplamayı ne zaman durduracağınıza karar vermek için verilerinizi kullanmanın geleneksel sıralı analiz yöntemleri karşısında tamamen uçtuğu fikri. Bunun klasik örneği klinik çalışmalarda kullanılan yöntemlerdir. Zararlı tedavilere potansiyel maruziyeti azaltmak için, veriler analiz yapılmadan önce ara zamanlarda analiz edilir. Deneme henüz tamamlanmadıysa, ancak araştırmacılar tedavinin işe yaradığı veya zararlı olduğu sonucuna varmak için yeterli veriye sahipse, tıbbi etik bize denemeyi durdurmamız gerektiğini söyler; tedavi işe yararsa, denemeyi durdurmak ve tedaviyi deneme olmayan hastalar için kullanılabilir hale getirmek etiktir. Zararlıysa, durmak daha etiktir, böylece deneme hastalarını zararlı bir tedaviye maruz bırakmayı bırakırız.

Sorun şu anda birden fazla karşılaştırma yapmaya başladık, bu nedenle birden fazla karşılaştırmayı hesaba katmak için yöntemlerimizi ayarlamazsak I. Tür hata oranımızı artırdık. Bu, geleneksel çoklu karşılaştırma problemleriyle tamamen aynı değildir, çünkü gerçekten çoklu kısmi karşılaştırmalar (yani, verileri bir kez toplanan verilerin% 50'si ile ve bir kez% 100 ile analiz edersek, bu iki örnek açıkça bağımsız değildir!) , ancak genel olarak ne kadar çok karşılaştırma yaparsak, tip I hata oranını korumak için sıfır hipotezini reddetme ölçütlerimizi o kadar çok değiştirmemiz gerekir; daha fazla karşılaştırma, boş değeri reddetmek için daha fazla kanıt gerektirir.

Bu klinik araştırmacıları bir ikileme sokar; Verilerinizi sık sık kontrol etmek istiyor, ancak null değerini reddetmek için gerekli kanıtlarınızı artırmak mı, yoksa verilerinizi seyrek olarak kontrol etmek, gücünüzü artırmak, ancak tıbbi etik konusunda optimal bir şekilde hareket etmemek mi istiyorsunuz (ör. ürünleri gereksiz yere uzun süreli olarak zararlı tedaviye maruz bırakmak veya maruz bırakmak).

Olasılık ilkesinin bize verileri kaç kez kontrol ettiğimiz önemli olmadığının, aynı çıkarımda bulunmamız gerektiğini söylediği anlaşılıyor (belki de yanlış) . Bu temelde sıralı deneme tasarımına yönelik tüm yaklaşımların tamamen gereksiz olduğunu söylüyor; olasılık ilkesini kullanın ve bir sonuç çıkarmak için yeterli veri topladıktan sonra durun. Hazırladığınız analizlerin sayısını ayarlamak için çıkarsama yöntemlerinizi değiştirmeniz gerekmediğinden, kontrol sayısı ile güç arasında değiş tokuş açmazı yoktur. Bam, tüm ardışık analiz alanı çözülür (bu yoruma göre).

Kişisel olarak, bu konuda benim için çok kafa karıştırıcı olan şey, sıralı tasarım alanında iyi bilinen, ancak oldukça ince olan bir gerçeğin , nihai test istatistiği olasılığının büyük ölçüde durdurma kuralı tarafından değiştirilmiş olmasıdır; temel olarak, durdurma kuralları durma noktalarındaki olasılığı süreksiz bir şekilde arttırır. İşte böyle bir çarpıtmanın bir çizimi; kesik çizgi, eğer veriler yalnızca tüm veriler toplandıktan sonra analiz edilirse, null altındaki son test istatistiği PDF'sidir, düz çizgi ise verileri belirli bir süre ile 4 kez kontrol ederseniz, test istatistiğinin null değeri altındaki dağılımı verir. kural.

Bununla birlikte, olasılık prensibinin Frequentist sıralı tasarım hakkında bildiklerimizi dışarı atabileceğimizi ve verilerimizi kaç kez analiz ettiğimizi unutabileceğimizi anlamışım. Açıkçası, bunun özellikle klinik tasarımlar için etkileri çok büyüktür. Bununla birlikte, fikrimi, durdurma kurallarının nihai istatistiğin olasılığını nasıl değiştirdiğini görmezden gelmeyi nasıl haklı çıkardıkları konusunda sarmadım.

Burada , çoğunlukla son slaytlarda bazı hafif tartışmalar bulunabilir .


2
+1. Sıfır hipotezi doğru olduğunda varsayımsal bir durum hakkında düşünmeyi kavramsal olarak daha kolay buluyorum, ancak kadar örnekleme devam ediyor (bu duvar her zaman er ya da geç gerçekleşiyor, yani olasılık 1 ile olacak) ve sonra denemeyi durdurmaya karar veriyor. Bu moronik prosedür LP ile uyumlu olmasına rağmen% 100 Tip I hata oranına sahip olacaktır. p<0.05
amip: Reinstate Monica

@amoeba: Örneğinizin gayet basit olduğunu kabul ediyorum (+1). Cevabımın amacı, neden bir tartışma olduğunu bile vurgulamaktır. O cevap olduğunu düşünüyorum eğer LP etkileri ve yorumların doğru olduğunu, bu klinik deneyler artık kesinlikle büyük kazanç olacağını maksimal güç ve gereksiz maruz kalma arasında seçti zorunda kalacak anlamına gelecektir. Genel olarak, araştırmacıların istatistiksel örneklerin kullanımını büyük ölçüde artıran uygun örnek boyutunu önceden tahmin etmelerine gerek kalmaz.
Cliff AB

Bence, sık testlerin tüm çerçevesi LP ile tutarsızdır ve işte böyledir. Eğer hata oranları için garanti isteniyorsa, sık test yapılır. Bunun LP ile tutarsız olduğu ortaya çıkıyor. Ayrıca bkz. Lindley'in paradoksu ve hepsi. Zor. Eskiden bu konularda heyecanlandım, ama şimdi artık değilim. Ücretsiz öğle yemeği yoktur; bazı seçimler yapmak gerekir. Birçok Bayes prosedürünün LP'yi de ihlal ettiğini unutmayın .
amip diyor ki Reinstate Monica

"Nihai test istatistiği olasılığı büyük ölçüde durdurma kuralı tarafından değiştirilir" Pdf değiştirilir ve aynı zamanda (ancak yalnızca sabit bir şekilde) olabilir, ancak yine de aynı olan bir olasılık işlevi ile sonuçlanabilir. orantılılık sabiti. Örneğin, başarıları ve denemeleri için binom dağılımı ve negatif binom dağılımı , hemn L ( p | n , k ) p k p n - kknL(p|n,k)pkpnk
Sextus Empiricus

3

Üstel veriler için LR testlerinin ana hatları.

Let rasgele bir numune olduğu , böylece İçin yoğunluk fonksiyonu ve CDF olanX1,X2,,XnExp(rate=λ),E(Xi)=μ=1/λ.x>0,f(x)=λeλxF(x)=1eλx.

1. Test istatistiği minimum örneklemdir.

LetSonra İspatın bir taslağı olarak, böylece içinV=X(1)=minn(Xi).VExp(nλ).

P(V>v)=P(X1>v,,Xn>v)=[eλv]n=enλv,
P(Vv)=1enλv,v>0.

Test için karşı seviyede biz kabul onun üstel dağılımdan tek gözlem. Günlük olasılık oranının olduğunda reddetmeyi gösterdiğini görüyoruz burada H9:μμ0Ha:μ>μ0,α=5%,VV>c,P(V>c|μ=μ0)=0.05.

ve olan belirli bir durumda, üstel oranımız böylece , burada üstel dağılım oran ile parametrelendirilir.n=100μ0=10,λ0=0.1,10=n/μ0=100/10=10,c=0.2295

 qexp(.95, 10)
 [1] 0.2995732
 1 - pexp(0.2996, 10)
 [1] 0.04998662

Buna göre, ( oranı) alternatifine karşı güç yaklaşık% .μa=100n/μa=1)

1 - pexp(0.2996, 1)
[1] 0.7411146

2. Test istatistiği örnek ortalamasıdır.

Oxford U. notları (ikinci sayfa) göstermektedir ki olasılığı oranı testi karşı için önemi ıskarta% 5 düzeyinde Ayrıca, anı üreten fonksiyonlar kullanılarak gösterilebilir H0:μμ0H0:μ>μ0X¯>c,P(X¯>c|μ=μ0)=0.5.X¯Gamma(n,nλ).

Belirli bir durum için olan ve elimizdeki böylecen=100μ0=10,λ0=0.1,X¯Gamma(100,10),c=11.7.

qgamma(.95, 100, 10)
[1] 11.69971
1 - pgamma(11.7, 100, 10)
[1] 0.04997338

Buna göre, alternatifine karşı güç yaklaşık% .μa=14

1 - pgamma(11.7, 100, 100/14)
[1] 0.9562513

Açıkça, üstel ortalama ilgili hipotezleri test etmek amacıyla , yeterli istatistik bilgi, örnek minimumdaki bilgilerden çok daha büyüktür.μ,X¯


Bunun soruya hiç değinmediğini düşünüyorum. İki olasılık orantılı mı? İlk önce iki deneyin olasılığını orantılı olarak göstermeniz gerekir, aksi takdirde olasılık ilkesi geçerli değildir. İkincisi, bu örnekte iki test aynı sonuca varmaktadır, bu yüzden binom ve negatif binom örneğinden daha da ezicidir.
2018

Belgeyi yeni kontrol ettim, olasılıklar orantılı değil , çünkü ilk olasılık ve diğeri olduğundan, olasılık ilkesi burada uygulanmamalıdır, iki testin farklı sonuçlara yol açması iyidir olabilirlik ilkesi. x ivxi
2018

2
Bruce, sadece benzerlik prensibinin neyi açıkladığını açıklamak için: olasılıkların sadece bir sabitle farklılık gösterdiği iki deneyiniz varsa, onlardan aynı sonucu çıkarmanız gerekir. Bu, sadece binom katsayı kısmında (sabit) farklılık gösterdikleri binom ile negatif binomiyal durumda olur. Örneğiniz, olasılıklarının sadece bir sabitle farklılık göstermediği iki test gösterir, bu nedenle LP geçerli değildir.
2018

@ statslearner2 x_n örneğini gözlemleme olasılığı işlevi : Bu testi gerçekleştirmek için bir ölçüt olarak minimum veya ortalamayı seçtiğinizde aynıdır. Burada meydana gelen ihlal, 'aşırı durumlar' tanımının farklı olduğu ve p-değerini hesaplamak için entegrasyonun farklı yapıldığı tür olarak görülebilir. x1,...,xn
f(x1,...,xn)=i=1nλeλxi
Sextus Empiricus

3

Farklı pdf işlevlerinin ve ihlalif(x,θ)g(x,θ)

Bu olgu, olasılık dağılım fonksiyonları 'ihlal' bir örneği olacaktır olan doğal olarak farklı olabilir. ve farklı olsa bile , olabilirlik prensibi ile ilgili olabilirler çünkü sabit ölçümde aynı kadar aynı fonksiyonları verir . Fark, "ihlaller" için bir olasılık açar.f(x,θ) g(x,θ)fgxθ


İsteğe bağlı durma kuralı olan veya olmayan bozuk para çevirme

İle veya opsiyonel durdurma kuralı olmadan yazı tura tipik bir örnektir, pdf farklı pdf fonksiyonları ve p-değerlerinin farklı hesaplama kurşun, ve güven aralıkları olan binom veya negatif binom olmakla sabit için aynı olabilirlik fonksiyonlara ulaşabileceğiniz numune / ölçüm (ölçeklendirmeye kadar).

fNegative Binomial(n|k,p)=(n1k1)pk(1p)nkfBinomial(k|n,p)=(nk)pk(1p)nk


Daha uç örnek

Şu şekilde dağıtılan bazı ölçümlerini düşününX

L(θ|x)=f(x|θ)={0 if x<0a if 0x<1(1a)θexp(θ(x1)) if x1

burada , deney türüne bağlı olarak bilinen bazı bir parametredir ve , bilinmeyen ve ölçümünden çıkarılabilen bir parametredir .aθx

Herhangi bir için, ve olabilirlik fonksiyonu bağımsızdır aynı işlevi ile orantılıdır :xaa

  • Eğer ox<1L(θ|x)1
  • Eğer daha sonrax1L(θ|x)θexp(θ(x1))

Ancak, aynı olabilirlik işlevi de olsa, p-değeri deneye (yani değerine ) bağlı olarak büyük ölçüde değişebilir . Örneğin, ölçtüğünüzde ve karşı test p değeriax=2H0:θ=1H0:θ<1

P(X>2|θ=1)=(1a)exp(1)


Sezgi: bu durumlarda ihlal nedeni, p-değerleri ve hipotez testleri vardır olduğunu değil sadece için olabilirlik fonksiyonu dayalı belirli gözlenen değer .x

P-değeri, sabit ile olasılığından değil, farklı bir dilim olan sabit ile pdf ile hesaplanır . Güven aralıkları, p-değeri ve hipotez testleri, olasılık oranlarından gelen bilgilerden farklıdır.f(θ|x)xf(x|θ)θ

p-değerleri gerçekten kanıt değildir: p-değeri, tek bir ölçümden ziyade bir ölçüm topluluğuyla ilgili bir ölçü olan tip I hatası ile ilgilidir. Bu tip I hata veya p-değeri Birnbaumların 'istatistiksel kanıtın temellerinden' 'delil anlamı' ile aynı değildir. Bu , p-değerleri ve bilim insanlarının sonuçları önemli etkilerden ziyade sadece istatistiksel anlamlılıkla araştıran problemlerle çok ilgilidir .

Çıkarımların belirgin şekilde farklı olduğu örneklere ihtiyacımız var mı? Ekstrem durum bunun bir örneği. Böyle bir durum veya benzer aşırı farkları olan herhangi bir şey elbette pratikte kolayca gerçekleşmez. Aptal olarak adlandırdığınız durumlarda olduğu gibi, farkın daha küçük olması daha sık görülür.

Olasılık ilkesinin 'gerçekten önemli olduğu' ya da iki farklı çıkarımın son derece farklı sonuçlara yol açtığı örnekleri sormak biraz yüklü bir sorudur . En azından bu sorunun amacı bazı felsefi tartışmalarla ilgili olduğunda. Bu yüklü bir sorudur çünkü maddenin ilkelerinin son derece değişken sonuçlara yol açması gerektiğini varsayar . Bununla birlikte, birçok pratik durumda sonuçlar küçüktür (bir siparişten daha düşük farklı p-değerleri açısından). Bunun iki veya daha makul sonuçlar için garip bir yöntem olmadığına inanıyorum. Farklılıklar çok küçük olduğunda olasılık ilkesinin 'daha az ihlal edilmediğini' düşünürdüm.


Durum 1 ile ilgili olarak: Farklı bir test istatistiği seçmenin, olasılık fonksiyonunu değiştirdiği düşünülebilir (bence?).
amip: Reinstate Monica

2
@MartijnWeterings evet, farklı bir test istatistiği seçiyor, önemli olan verilerin değil istatistiklerin olasılığıdır. Aksi takdirde 100 döndürme dizisi alabilir ve birkaç istatistik hesaplayabilirim: kafa sayısı, kafa ve kuyruk değişimi sayısı. Bunların hiçbiri LP'yi ihlal etmiyor.
statslearner2

Böyle vb 3 başarının kadar çalışmaların sayısı veya n denemelerdeki sayısı gibi orantılı olabilirlikler sahip olacaktır iki istatistikleri seçmek gerekir
statslearner2

1

İşte James O. Berger'in İstatistiksel karar teorisi ve Bayes analizinden uyarlanmış bir örnek (İkinci baskı sayfa 29).

İki yaban arısı türünün kanatlardaki çentik sayısıyla (buna deyin ) ve karın çevresindeki siyah halkaların sayısıyla (bu diyelim) ayırt edilebildiğini varsayalım . İki türdeki ( ve olarak etiketlenmiş ) karakterlerin dağılımı aşağıdaki gibidir:xyH0H1

Tablo istatistiksel karar teorisinden uyarlanmıştır ve James O. Berger tarafından Bayes analizi.

Kanatlarda 1 çentik ve karın çevresinde 1 halka bulunan bir örnek bulduğumuzu varsayalım. Her iki karakter için karşı lehine 100 kat daha büyükse kanıt ağırlığı .H1H0

Şimdi birisi için% 5 düzeyinde bir test yapmak , karar kuralı ilk karakter için “ kanatta 1 çentik varsa kabul et, aksi takdirde reddet” ve ikinci karakter için “ kabul ” karın çevresinde 3 halka varsa, aksi takdirde reddedin ”. Başka birçok olasılık var, ancak bunlar bu seviyede en güçlü testlerdir. Ancak, her iki karakter için de farklı sonuçlara varıyorlar.H0H0H0


Not : Elbette “ karın çevresinde 1 veya 3 halka varsa kabul , aksi takdirde reddedin” kuralı ile bir test yapılabilir . Soru, tip II risk 0 ile% 5 seviyesinde bir testi mi yoksa tip II risk 0.00001 ile% 4.9 seviyesinde bir testi mi tercih edeceğimizdir. Fark o kadar küçük ki muhtemelen umursamayız, ama anladığım kadarıyla, olabilirlik ilkesi için argümanın çekirdeği budur: sonucun alakasız görünen bir şeye bağlı olması iyi bir fikir değildir.H0


Olabilirlik fonksiyonları orantılıdır ve yine de p değeri 0.95 ve değeri ( biçimindeki olaylarla reddettiğimizi varsayarsak ). Tablonun yapısından 0.001'den daha küçük herhangi bir sayı seçebileceğim açıktır. Ayrıca, retin tip II riski 0'dır, bu yüzden burada “yanlış” hiçbir şey yok gibi görünüyor.x=1y=1H0yα

Yine de, bu örneğin bir şekilde dürüst olmadığını ve tamamen dürüst olmadığını itiraf ediyorum, çünkü ayrık verilerle testler düzenleme zorluğu ile oynuyor. Kişi sürekli verilerle eşdeğer örnekler bulabilir, ancak daha da çelişkili olurlar. OP ile olasılık ilkesinin neredeyse hiç pratik değeri olmadığına katılıyorum; Teori içinde bir miktar tutarlılığı garanti etmeyi ilke olarak yorumluyorum.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.