İnsanlar neden veri verilen modelin hesaplama olasılığını hesaplamak yerine p değerleri kullanıyor?


43

Kabaca bir p-değeri konuşmak, hipotez (model) verilen bir deneyin gözlemlenen sonucunun olasılığını verir. Bu olasılığa sahip (p-değeri) hipotezimizi (ne kadar muhtemel olduğu) değerlendirmek istiyoruz. Ancak gözlemlenen sonuç verilen hipotezin olasılığını hesaplamak daha doğal olmaz mıydı?

Daha detaylı Bir madeni paramız var. 20 kez çevirip 14 kafa alıyoruz (20 kişiden 14'ü benim "denemenin sonucu" olarak adlandırıyorum). Şimdi, hipotezimiz madalyonun adil olduğu (kafa ve kuyruk olasılıklarının birbirine eşit olduğu). Şimdi p-değerini hesapladık, yani 20 jeton parayla 14 veya daha fazla kafa alma ihtimaline eşit. Tamam, şimdi bu olasılığımız var (0.058) ve bu olasılığı modelimizi değerlendirmek için kullanmak istiyoruz (adil bir madeni paramızın olması muhtemeldir).

Fakat modelin olasılığını tahmin etmek istiyorsak, neden denemede verilen modelin olasılığını hesaplamıyoruz? Model (p-değeri) verilen deneyin olasılığını neden hesaplıyoruz?


Olabilirlik fonksiyonunu hesaplayabilmek için denemenizi bir şekilde modellemeniz gerekir.
Raskolnikov

11
Pete Dixon, 1998'de , bilgilendirici bir okuma olabilecek "Bilim adamlarının neden p-değerlerine değer verdiğini " ( psychonomic.org/backissues/1631/R382.pdf ) adlı bir makale yazdı . İyi bir takip, Glover & Dixon’ın yerine geçen bir metrik olma ihtimaline ilişkin 2004 tarihli makalesi olacaktır ( pbr.psychonomic-journals.org/content/11/5/791.full.pdf ).
Mike Lawrence

2
Mike, bu şüpheli bir şekilde bana iyi bir cevap gibi görünüyor. Yorumlarda ne işi var?
Matt Parker

John D Cook, ilginç bulacağımı düşündüğüm bir soruya mükemmel bir cevap verdi: stats.stackexchange.com/questions/1164/…
doug

İnsanlar p-değerleri kullanmaz, istatistikçiler kullanır. (Aynı zamanda doğru olan bir özlü söze karşı koyamadım. Tabii ki, her bir ismi doğru bir şekilde nitelendirmeye başladığınızda özlülüklerini kaybeder.)
Wayne

Yanıtlar:


31

Hipotezin doğru olma olasılığını hesaplamak, Bayesian bir olasılık tanımının sözde öznelliğinden kaçınmak için benimsenen bir olasılık (uzun dönem frekansı) sık tanımına uygun değildir. Belirli bir hipotezin gerçeği rasgele bir değişken değildir, ya doğrudur ya da değildir ve uzun çalışma sıklığı yoktur. IMHO'nun neden p-değerlerinin genellikle sıfır hipotezinin gerçek olabileceği olasılığı olarak yanlış yorumlandığı hipotezi gerçeğinin olasılığı ile ilgilenmek gerçekten daha doğaldır. Zorluğun bir kısmı, Bayes kuralından yola çıkarak, bir hipotezin doğru olacağı posterior olasılığını hesaplamak için, hipotezin doğru olması olasılığını önceden düşünmeniz gerektiğini biliyoruz.

Bir Bayes olur hipotez doğru olduğunu veri alındığında, olasılık hesaplamak (ve onun / onu önceki inanç).

Temelde, sıkça ve Bayesci yaklaşımlar arasında karar vermede, Bayesci yaklaşımın sözde öznelliğinin, sıkça yaklaşımın genellikle sormak istediğiniz soruya doğrudan bir cevap vermemesi gerçeğinden daha iddiasız olup olmadığı bir seçimdir - ancak her ikisi de.

Bir madalyonun adil olup olmadığını, yani bir başın olasılığının bir kuyruk olasılığına eşit olup olmadığını sorma durumunda, gerçek dünyada bildiğimiz bir varsayım örneğinin de en başından beri kesinlikle yanlıştır. Madalyonun iki yüzü simetrik değildir, bu yüzden kafa ve kuyrukların olasılıklarında hafif bir asimetri beklemeliyiz, bu nedenle madalyonun testi "geçmesi" durumunda, bu, yeterli gözlemler yapamayacağımız anlamına gelir doğru olduğunu bildiğimiz şeyi bitirdik - madalyonun çok hafif bir önyargılı olduğu!


4
Aslında, çoğu madeni paralar aslında fuara çok yakındır ve onları çok fazla bastırmak için fiziksel olarak makul bir yol bulmak zor - bkz. Örneğin stat.columbia.edu/~gelman/research/published/diceRev2.pdf
Ben Bolker

8
Fuara çok yakın olmak, tamamen adil olmakla aynı şey değil, sıfır hipotezi. Hipotez testinin kendine has özelliklerinden birini işaret ediyordum, yani boş hipotezin yanlış olduğunu sık sık biliyoruz ama yine de kullanıyoruz. Daha pratik bir test, madalyonun önyargılı olduğuna dair önemli kanıtlardan ziyade madalyonun belirgin şekilde önyargılı olduğuna dair kanıt olup olmadığını tespit etmeyi amaçlar.
Dikran Marsupial

1
Merhaba, belki yanılıyorum ama bilimde düşündüm, alternatif hipotezin doğru olduğunu asla söyleyemezsiniz, sadece boş hipotezin reddedildiğini söyleyebilir ve alternatif hipotezi kabul edersiniz. Bana göre p değeri, bir tip 1 hata yapma şansını yansıtır, yani alternatif hipotezi reddeder ve boş hipotezi kabul edersiniz (p = 0,05 veya% 5 deyin, tip 1'i ayırt etmek önemlidir. hata ve tip 2 hatası ve olayın modellenmesinde gücün oynadığı rol
user2238

3
Sık sık yapılan testler için, "zayıf hipotezi reddettiğiniz" ya da "boş hipotezi reddetmediğiniz" ve hiçbir şey kabul etmediğinizden daha zayıf bir ifade kullanırdım. Kilit nokta şu ki (önyargılı madeni parada olduğu gibi) bazen boş hipotezin doğru olmadığı konusunda bir a priori biliyorsunuzdur, bunun doğru olmadığını göstermek için yeterli veriniz yoktur; bu durumda “kabul etmek” garip olacaktır. Sık yapılan testler tip I ve tip II hata oranlarına sahiptir, ancak bu, OP'de olduğu gibi, belirli bir hipotezin gerçek olma ihtimalinden bahsedebilecekleri anlamına gelmez.
Dikran Marsupial

2
@ user2238 p-değeri, yalnızca bir boş hipotez "basit" olduğunda (kompozit olmadığında) ve gerçek olduğunda ortaya çıkar. Örneğin, bir madalyonun kuyruklara doğru bastırılmış olup olmadığına dair tek taraflı bir testte ( ), iki başlı bir jeton kullanılması, p-değeri p Herhangi bir sonlu örnek sıfır olacaktır. H0:p<0.5
whuber

18

Gerçekten eski bir soruya cevap vermek gibisi yoktur, ama işte ...

p değerleri neredeyse geçerli hipotez testleridir. Bu, Jaynes'in 2003 olasılık teorisi kitabından (Tekrarlanan deneyler: olasılık ve frekans) alınan, biraz uyarlanmış bir çabadır. Test etmek istediğimiz bir boş hipotez olduğunu varsayalım . Veri sahip ve önceki bilgiler . test belirtilmemiş hipotezi olduğunu varsayalım . İçin arka olasılık oranı karşı sonra verilir: D I H Bir İH 0 İH bir H 0H0DIHAH0HAH0

P(HA|DI)P(H0|DI)=P(HA|I)P(H0|I)×P(D|HAI)P(D|H0I)

Şimdi sağ taraftaki ilk terim verilerden bağımsızdır, bu nedenle veriler yalnızca ikinci terim ile sonucu etkileyebilir. Şimdi, her zaman alternatif bir hipotez icat edebilirsiniz şekilde bir "mükemmel uyum" hipotezi -. Bu nedenle, , verilerin null üzerindeki alternatif hipotezleri ne kadar iyi destekleyebileceğinin bir ölçüsü olarak kullanabiliriz. Verilerin üzerinden den daha fazla destekleyebileceği alternatif hipotezi yoktur . Alternatiflerin sınıfını da sınırlayabiliriz ve değişiklik şu ki , o sınıf içindeki en üst düzeye çıkarılmış (normalleştirici sabitler dahil) olabilir. Eğer P ( D | H A I ) = 1 1HAP(D|HAI)=1 H011P(D|H0I)H0 1P(D|H0I)H0HAt(D)>t0t(D)Dt(D)1P(D|H0I)1P(D|H0I)Çok küçük olmaya başlar, sonra şüphe etmeye başlarız, çünkü ve arasındaki alternatiflerin sayısı artar (bazıları önemsenmeyen önceki olasılıklar da dahil). Ancak bu, p-değerleri ile yapılan işlemlerin neredeyse hemen hemen aynısıdır, ancak bir istisna dışında: bazı istatistiklerin ve istatistiklerin bazı “kötü” bölgeleri için olasılığını hesaplamıyoruz . olasılığını hesaplıyoruz - bazı altkümeler yerine gerçekte sahip olduğumuz bilgiler .H0HAt(D)>t0t(D)Dt(D)

İnsanların p-değerlerini kullanmasının bir başka nedeni de, genellikle "uygun" bir hipotez testine işaret etmeleridir ancak hesaplamaları daha kolay olabilir. Bunu, normal ortalamayı bilinen varyansla test etmenin çok basit bir örneğiyle gösterebiliriz. Veri sahip sahte modelle (önceki bilgilerinin bir parçası ). test etmek istiyoruz . Sonra küçük bir hesaplamadan sonra, biz var:x i ~ N o r m bir l ( μ , σ 2 ) I H 0 : μ = μ 0D{x1,,xN}xiNormal(μ,σ2)IH0:μ=μ0

P(D|H0I)=(2πσ2)N2exp(N[s2+(x¯μ0)2]2σ2)

Burada ve . Bu, maksimum değerinin olduğunda elde edileceğini gösterir . Maksimum değer:s2=1x¯=1Ni=1NxiP(D|H0I)μ0= ¯ xs2=1Ni=1N(xix¯)2P(D|H0I)μ0=x¯

P(D|HAI)=(2πσ2)N2exp(Ns22σ2)

Böylece bu ikisinin oranını alıyoruz ve alıyoruz:

P(D|HAI)P(D|H0I)=(2πσ2)N2exp(Ns22σ2)(2πσ2)N2exp(Ns2+N(x¯μ0)22σ2)=exp(z22)

Burada "Z-istatistiği" dir. in büyük değerleri Veriler tarafından en güçlü şekilde desteklenen normal ortalama hakkındaki hipoteze göre sıfır hipotezde şüphe yaratır. Ayrıca, in gereken verilerin sadece bir parçası olduğunu ve dolayısıyla test için yeterli bir istatistik olduğunu görebiliriz.z=Nx¯μ0σ|z|x¯

Bu soruna p değeri yaklaşımı neredeyse aynı, ancak tersi. Yeterli istatistiğiyle başlıyoruz ve örneklem dağılımını hesaplıyoruz; bunun kolaylıkla olduğu görülüyor - rastgele değişkeni rastgele değişkeni gözlenen değerden ayırmak için büyük harf kullandım . Şimdi boş hipotezden kuşku duyan bir bölge bulmamız gerekiyor: bu,büyük. Böylece olasılığını hesaplayabilirizx¯X¯Normal(μ,σ2N)X¯x¯|X¯μ0||X¯μ0||x¯μ0|Gözlemlenen verilerin ne kadar uzakta olduğu hipotezinden bir ölçü olarak. Daha önce olduğu gibi, bu basit bir hesaplamadır ve şunu elde ederiz:

p-value=P(|X¯μ0||x¯μ0||H0)
=1P[N|x¯μ0|σNX¯μ0σN|x¯μ0|σ|H0]
=1P(|z|Z|z||H0)=2[1Φ(|z|)]

Şimdi, p-değerininBu, aslında “uygun” hipotez testiyle aynı cevabı elde ettiğimiz anlamına gelir. P değeri belirli bir eşiğin altındayken reddetmek, arka oranlar belirli bir eşiğin üstünde olduğunda reddetmekle aynı şeydir. Ancak, uygun testi yaparken, alternatiflerin sınıfını tanımlamamız gerektiğine ve bu sınıfa yönelik bir olasılığı en üst düzeye çıkarmak zorunda olduğumuza dikkat edin. P değeri için bir istatistik bulmalı ve örnekleme dağılımını hesaplamalı ve bunu gözlemlenen değerde değerlendirmeliyiz. Bir anlamda istatistik seçmek, düşündüğünüz alternatif hipotezi tanımlamaya eşdeğerdir.|z|

Her ikisi de bu örnekte yapılması kolay şeyler olsa da, daha karmaşık durumlarda her zaman bu kadar kolay değildir. Bazı durumlarda, örnekleme dağılımını kullanmak ve hesaplamak için doğru istatistiği seçmek daha kolay olabilir. Diğerlerinde, alternatiflerin sınıfını tanımlamak ve bu sınıfa göre en üst düzeye çıkarmak daha kolay olabilir.

Bu basit örnek, birçok hipotez testinin "yaklaşık normal" çeşitlilikte olması nedeniyle büyük miktarda p-değere dayalı teste neden olmaktadır. Ayrıca madeni para sorununuza da yaklaşık bir cevap vermektedir (binom için normal yaklaşımı kullanarak). Ayrıca, bu durumda p-değerlerinin, en azından tek bir hipotezi test etme konusunda sizi yoldan saptırmayacağını da göstermektedir. Bu durumda, bir p değerinin boş hipoteze karşı bir kanıt ölçüsü olduğunu söyleyebiliriz.

Bununla birlikte, p değerleri bayes faktöründen daha az yorumlanabilir bir ölçeğe sahiptir - p değeri ile boş değere karşı kanıtların "miktarı" arasındaki bağlantı karmaşıktır. p-değerleri çok hızlı bir şekilde çok küçülür - bu da onları doğru şekilde kullanmalarını zorlaştırır. Verilerin sağladığı boşluğa karşı desteği abartıyorlar. - biz boş karşı olasılık, p-değerleri yorumlamak ise oran şeklinde olduğu gerçek kanıt olduğunda, ve oran biçimindedir gerçek kanıt olduğunda . Veya başka bir deyişle, null değerinin yanlışı olma olasılığı olarak bir p-değeri kullanmak, önceki oranları belirlemeye eşdeğerdir. Yani p değeri için0.193.870.05196.830.1boş değere karşı verilen önceki bahis oranları ve p- değeri için boş değere karşı belirtilen önceki bahis oranları .2.330.052.78


4
+1. “... istatistik seçmeyi düşündüğünüz alternatif hipotezi tanımlamaya eşdeğerdir” derinden bir içgörü olarak beni vurur.
whuber

İyi cevap. Bazı küçük için daha büyük bir alternatif sınıfıyla çalışmanın , eğer ortaya çıkacak sonsuz veya sayılamayan alternatiflerle çalışmak zorunda olsa bile, çoğu zaman hesaplama açısından engelleyici olabileceği de dikkate değerdir. uygulamada. P-değeri yaklaşımının büyük bir artı sık sık (genellikle?) Hesaplama olarak basit / izlenebilir olmasıdır. kk
Faheem Mitha

1
@ Faheemmitha- Kombinatoryal patlama konusunda haklısın, ancak tarif ettiğim yaklaşım için bu gerçekleşmez (aslında bayes yaklaşımının artıkları etkin bir şekilde tanımladığını gösterebilirsin). Bunun nedeni sadece sınıfı tanımlamamız ve sonra maksimize etmemiz gerektiğidir. Her alternatifi değerlendirmeye ihtiyacımız yok, sadece en iyisini bulun.
Olasılık 27

Bu cevap neden Topluluk Wiki?
amip diyor Reinstate Monica

10

Uygulamaya geçen eski bir akademisyen olarak, bir fotoğraf çekeceğim. İnsanlar p-değerleri kullanırlar çünkü faydalıdırlar. Ders kitaplarında yazı tura örneklerini göremezsiniz. Temel olarak gerçekten sağlam olmadıklarından emin olabilirsiniz, ancak belki de akademik olarak düşündüğümüzde düşünmek istediğimiz kadar gerekli değildir. Veri dünyasında, kelimenin tam anlamıyla sınırsız sayıda soruna yol açacağız. P-değer hesaplamaları ile, neyin ilginç olmadığı ve neyin ilginç olabileceği konusunda sayısal bir sezgisel bir fikir olarak ihtiyaç duyduğunuz her şey (peki, artı ilginç olmayan bir olasılık modeli). Sonra, bireysel olarak veya toplu olarak, oldukça basit olan şeyleri tarayabiliriz, ilgisizliğin büyük kısmını reddedebiliriz. P-değeri, "Bunun hakkında düşünmeye fazla öncelik vermezsem,


10

Sorunuz sıkça muhakemenin harika bir örneği ve aslında oldukça doğal. Bu örneği sınıflarımda hipotez testlerinin doğasını göstermek için kullandım. Bir yazı turasının sonuçlarını tahmin etmesi için bir gönüllüden rica ediyorum. Sonuç ne olursa olsun, "doğru" bir tahmin kaydederim. Sınıf şüpheli hale gelinceye kadar bunu tekrar tekrar yapıyoruz.

Şimdi, kafasında boş bir model var. Madalyonun adil olduğunu varsayıyorlar. Her şey adil olduğunda% 50 doğru varsayımı göz önüne alındığında, ardışık her doğru tahmin, adil para modelinin yanlış olduğu konusunda daha fazla kuşku uyandırmaktadır. Birkaç doğru tahmin ve şansın rolünü kabul ediyorlar. 5 veya 10 doğru tahminden sonra, sınıf daima adil bir madeni para şansının düşük olduğundan şüphelenmeye başlar. Bu nedenle, sık sık model altında hipotez testinin doğası gereğidir.

Bu, sık sık hipotez testine katılan almanın açık ve sezgisel bir temsilidir. Sıfırın doğru olduğu verilen gözlenen verilerin olasılığıdır. Bu kolay deneyin gösterdiği gibi aslında oldukça doğal. Modelin 50-50 olduğu kabul edilir, ancak kanıtlar arttıkça, bu modeli reddediyorum ve oyunda başka bir şey olduğundan şüpheleniyorum.

Öyleyse, gözlemlediğim olasılık düşükse, varsaydığım model (p-değeri) varsayalım, varsayılmış modelimi reddetme konusunda kendime güvenim var. Bu nedenle, bir p-değeri benim şansımın rolünü göz önünde bulundurarak benim varsayılan modelime karşı yararlı bir kanıt ölçüsüdür.

Bir feragatname: Bu alıştırmayı ASA dergilerinden biri olarak hatırladığım uzun ve unutulmuş bir makaleden aldım.


Brett, bu ilginç ve harika bir örnek. Bana göre buradaki model, insanların kafa ve kuyrukların düzenini rastgele bir şekilde olmasını bekliyor gibi görünüyor. Örneğin, üst üste 5 kafa görüyorsam, bunun rastgele olmayan bir işlem örneği olduğuna inanıyorum. Aslında, burada yanlış olabilirim, bir toin coss (rastlantısal varsayım varsa) olasılığı% 50 kafa ve% 50 kuyruktur ve bu önceki sonuçtan tamamen bağımsızdır. Mesele şu ki, 50000 kez bozuk para
attıysak

@ user2238: Son ifadeniz doğrudur, ancak çok nadiren nadir olacaktır. Aslında, madeni para adil olduğunda, 5 kafaya 5 fırlatma atışı görmek zamanın sadece% 3'ünde gerçekleşirdi. Boş değerin doğru olması her zaman mümkündür ve nadir bir olaya şahit olduk.
Brett,

6

“Kabaca konuşan p değeri, hipotez (model) verilen bir deneyin gözlemlenen sonucunun olasılığını verir.”

ama öyle değil. Kabaca bile değil - bu, temel bir ayrımı önemser.

Raskolnikov'un işaret ettiği gibi, model belirtilmemiştir, ancak bir binom modeli demek olduğunu varsayalım (bağımsız jeton atışı, sabit bilinmeyen jeton sapması). Hipotez, bu modeldeki ilgili parametrenin, kafaların yanlılığı veya olasılığının 0,5 olduğu iddiasıdır.

“Bu olasılığa sahip olmak (p-değeri) hipotezimizi yargılamak istiyoruz (ne kadar muhtemeldir)”

Gerçekten bu yargılamayı yapmak isteyebiliriz, ancak bir p değeri bize yardım etmeyecek (ve tasarlanmamıştır).

“Fakat gözlemlenen sonuç verilen hipotezin olasılığını hesaplamak daha doğal olmaz mıydı?”

Belki olur. Yukarıdaki Bayes tartışmasına bakınız.

"[...] Şimdi p-değerini hesaplıyoruz, 20 jetonla 14 veya daha fazla kafa alma ihtimaline eşittir. Tamam, şimdi bu olasılık var (0.058) ve bu olasılığı kullanmak istiyoruz modelimizi değerlendirin (adil bir madeni paramızın olma olasılığı ne kadardır). ”

'hipotezimizden, modelimizin doğru olduğunu varsayarak', ancak esasen: evet. Büyük p değerleri madeni para davranışının adil olduğu hipotezi ile tutarlı olduğunu göstermektedir. (Ayrıca, genellikle yanlış olma hipoteziyle de tutarlıdırlar, ancak gerçek olmaya o kadar yakındır ki söyleyecek yeterli veriye sahip değiliz; bkz. 'İstatistiksel güç'.)

“Fakat modelin olasılığını tahmin etmek istiyorsak, neden deneyde verilen modelin olasılığını hesaplamıyoruz? Model verilen denemenin olasılığını neden hesaplıyoruz (p-değeri)?”

Aslında bu düzende hipotez verilen deneysel sonuçların olasılığını hesaplamıyoruz. Sonuçta, olasılık, hipotez doğru olduğunda tam olarak 10 kafa görmenin sadece 0.176'sı budur ve bu en olası değerdir. Bu hiç bir ilgi alanı değil.

Aynı zamanda modelin olasılığını da tahmin etmememiz önemlidir. Hem frekansçı hem de Bayesçi cevapları, tipik olarak modelin doğru olduğunu kabul eder ve parametreleri hakkında çıkarımlar yapar. Gerçekten de, her Bayesians olur Tüm durum iyi bir binom dağılımı modellenmiştir olasılığı: hatta prensipte olduğu modelin olasılık, ilgi duyun. Çok fazla model kontrolü yapabilirler, ancak binomun diğer olası modeller alanında ne kadar muhtemel olduğunu asla sormazlar. Bayes Faktörleri ile ilgilenen Bayesliler ilgileniyor, diğerleri pek değil.


2
Hmm, iki aşağı oy. Cevap çok kötüyse, bazı yorumlarınız olması iyi olurdu.
conjugateprior

Bu cevabı beğendim. Bazen insanlar cevapsız oy kullanırlar çünkü bir ders kitabına benzer değildir ve açık sözlü veya açıklayıcı bir anlatı içeren tüm tartışma alanlarını kaldırmaya çalışırlar.
Eylül’deki Vass

Oy vermedim ama bir problemin amacınızın net olmadığı yönünde.
Elvis


3

Sadece birkaç açıklama ekleyeceğim; -değerlerinin aşırı kullanımının zararlı olduğu konusunda size katılıyorum .p

  • Uygulamalı istatistikteki bazı insanlar -değerlerini yanlış yorumluyor , özellikle onları boş hipotezlerin gerçek olma olasılığı olarak anlıyorlar; Bu makalelerde: P Değerleri Hata Olasılıkları Değildir ve Neden "İstatistiksel Önemin" Ne Olduğunu Gerçekten Bilmiyoruz: Önemli Bir Eğitim Başarısızlığı .p

  • Diğer bir yaygın yanılgı, değerlerinin, hem numunenin boyutunu hem de efektlerin boyutunu yansıttığında tespit edilen etkinin boyutunu veya sınıflandırma potansiyelini yansıttığıdır. Bu, bazı insanların bir karakterle "güçlü bir şekilde ilişkili" olarak gösterilen değişkenlerin (yani çok küçük p değerleri ile) neden zayıf sınıflandırıcı olduklarını açıklamak için bildiri yazarlar .p

  • Sonuç olarak, benim görüşüme göre, -değerleri yayın standartları nedeniyle bu kadar yaygın bir şekilde kullanılıyor. Uygulanan alanlarda (biostatlar ...) büyüklükleri bazen bazı hakemlerin tek kaygısıdır.p


2

Olasılığı tanımla . İçtenlikle söyledim. Daha ileriye gitmeden önce, şartlara uymamız gerekir.

Sezgisel bir olasılık tanımı, bir belirsizlik ölçüsüdür. Bir sonraki yazı tura gelip gelmeyeceğinden emin değiliz. Bu verilerinde belirsizliktir . Ayrıca madalyonun adil olup olmadığından da emin değiliz. Bu, modeli hakkındaki belirsizliktir ... ya da dünyanın durumu hakkındaki belirsizlik diyebilirsiniz.DM

Koşullu dağılım varmak için, ortak dağıtım - yani, dolaşımdaki tüm sikke popülasyonunun bilgisi, bunların ne kadarının sahte olduğu ve dövme paralar ( madeni paraların bükülme ve havada tutulma şekline bağlı olabilir) davranır .P(M|D)P(M,D)

Sikkelerin özel örnekte, bu en azından kavramsal olarak mümkün - Hükümet rakamlar mevcut fuar (28 olması gerekiyordu paralar üzerinde 10 9 yılda) veya kararlı özelliklere sahip en az olanlar. Sahte paralar , bir milyondan daha az üretim ölçeğinden bahsetmeye değmez, bu yüzden , aldığınız madalyonun haksız olma ihtimali olabilir. O zaman haksız madalyonun nasıl çalıştığına dair bir model bulmalı ve ... ortak dağıtımı elde etmeli ve verilerdeki durumu.106/28109

Pratik dünyada, tıbbi koşullar ve çalışma şekilleri ile ilgili problemlerde, ortak dağıtımın bu bileşenlerinden hiçbirini bulamıyor olabilirsiniz ve şart koyamazsınız.

Bayesian modelleme , modelleri basitleştirmenin ve bu eklemlerle bulmanın bir yolunu sunar . Fakat şeytan ayrıntıda gizlidir. Adil madalyonun olan bir tane olduğunu söylerseniz, sonra da devam edip geleneksel bir Beta belirtin ve Beta konjugatını geri alın, sonra ... sürpriz, sürpriz! , bu sürekli dağılımların herhangi biri için, önceliğinizin veya . Eğer bir nokta kütlesi dahil etmek olurdu Yani , it a önceki kütlesi vermek (P(M,D)p=0.5P(p=0.5)=0B(0.5,0.5)B(1000,1000)0.528109/(28109+106),)) ve verilerinizin posterioru bu nokta kütlesinden uzaklaştırıp uzatmadığını görün. Bu, daha geleneksel Gibbs örneklemesinden ziyade Metropolis-Hastings örneklemesini içeren daha karmaşık bir hesaplamadır.

Tam olarak doğru modellerin ne olduğu hakkında konuşmadaki zorlukların yanı sıra, Bayesian yöntemlerinin modelin yanlış tanımlanması ile baş etmenin sınırlı yolları vardır. Eğer Gauss hatalarından hoşlanmıyorsanız ya da jetonlu fırlatmaların bağımsızlığına inanmıyorsanız (eliniz ilk 10.000'den fazla yorulduktan sonra yorulur, bu nedenle ilk 1000 ya da daha fazla kez atmazsınız, Olasılıkları etkileyebilir.), Bayesian dünyasında yapabileceğiniz tek şey daha karmaşık bir model oluşturmaktır - normal karışımlar için çubuk kırma öncelikleri, zaman içinde olasılıklardaki olasılıklar. Ancak, Huber sandviç standart hatalarına doğrudan, modelin yanlış tanımlanabileceğini ve bunu hesaba katmaya hazır olduğunu kabul eden doğrudan bir analogu yoktur.

İlk paragrafıma geri dönersek - tekrar, olasılığı tanımlayın. Resmi tanım, üçlüsüdür . , muhtemel sonuçların alanıdır (model ve veri kombinasyonları). , bu alanda ölçülebilecek olanın -algebra değeridir. alt-gruba bağlı olasılık ölçüsü / yoğunluğu , - hangi ölçülebilir olması işe olasılık matematik. Sonlu boyutlarda, en makul kümeler ölçülebilir - bkz Borel kümeleri<Ω,F,P>ΩFσPAΩAF, Sizi ayrıntılarla sıkmayacağım. Daha ilginç olan sonsuz boşluklarla (örneğin eğrilerin ve yörüngelerin alanları), işler çok çabuk tüylenir. Rastgele bir işlem varsa zamanlı olarak bir birim aralığında, daha sonra resim olduğu değil ölçülebilir rağmen basitlik . ( gibi sonlu için ölçülebilir ve aslında gerekli oluşturur . Ancak bu görünüşte yeterli değil .) Dolayısıyla, büyük boyutlardaki olasılıklar, hesaplamalarda bile, tanımlama düzeyinde bile zorlaşabilir.Xt,t[0,1]{Xt>0,t[0,0.5]}{Xt>0,t{t1,t2,,tk}}kσ


1

Fakat modelin olasılığını tahmin etmek istiyorsak, neden denemede verilen modelin olasılığını hesaplamıyoruz?

Çünkü nasıl olduğunu bilmiyoruz. Sınırsız sayıda model vardır ve olasılık alanları tanımlanmamıştır.

İşte pratik bir örnek. Diyelim ki ABD GSYİH'sını tahmin etmek istiyorum. Zaman serisini alıyorum ve bir modele uyuyorum. Bu modelin gerçek olma olasılığı nedir?

Öyleyse, rastgele bir yürüyüş modelini GDP serisine : burada büyüme oranı ve rastgele bir hatadır. Aşağıdaki kodum tam da bunu yapıyor ve aynı zamanda tahmini (kırmızı) üretiyor ve tarihsel verileri (mavi) karşılaştırıyor. μ E t

Δlnyt=μ+et
μet

görüntü tanımını buraya girin

Ancak, kim GSYİH rastgele bir yürüyüş süreci olduğunu söyledi ? Bir eğilim süreci neydi? Öyleyse, şu eğilimi : burada , zaman trendinin eğimidir. Bir trend modelini kullanarak tahmin aynı grafikte (sarı) gösterilir. C

lnyt=ct+et
c

Şimdi rastgele yürüyüş modelimin gerçek olma olasılığını nasıl hesaplarsınız? MLE içinde veri setine göre drift olasılığını hesaplayabiliriz , ancak olasılık bu değil. İkincisi, ve daha da önemlisi, modelin rastgele bir yürüyüş olabileceği ihtimalini, bir trend model olabileceğini bilerek bu sapma ile nasıl hesaplarsınız? Bu tür bir dinamiği üreten başka herhangi bir model olabilir.μ

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.