Hesaplamalarda olasılık yoğunluk fonksiyonlarının kullanımı. Başka bir deyişle, bu denklemlerin nasıl değerlendirileceği.
Bence bunu hala sık sık bir perspektiften düşünüyorsunuz: Eğer bir nokta tahmini arıyorsanız, posterior bunu size vermeyecektir. PDF'leri yerleştirirsiniz, PDF'leri çıkarırsınız. Posterior dağılımınızdaki istatistikleri hesaplayarak puan tahminleri elde edebilirsiniz, ancak bunu birazdan alacağım.
Öncelikler ve posteriorlar kavramını alıyorum ve bunları manuel olarak bir tablo kullanarak nasıl uygulayacağımı anlıyorum. Pi'nin sözde nüfus oranını veya olasılığını temsil ettiğini düşünüyorum (sanırım!).
p ( x ) ππ( x ) , aynı şeydir : her ikisi de PDF'dir. sadece geleneksel olarak belirli PDF'nin bir önceki yoğunluk olduğunu belirtmek için kullanılır.p ( x )π
Sanırım sizin de düşündüğünüz gibi öncelikler ve posterler almadığınızdan şüpheleniyorum, bu yüzden Bayes istatistiklerinin temel dayanağına destek olalım: Öznel Olasılık .
Öznel Olasılıkta Düşünce Deneyi
Diyelim ki size bir bozuk para sundum ve size bu bozuk paranın adil bir para olup olmadığını sordum. Pek çok insanın olasılık sınıfındaki haksız paralar hakkında konuştuğunu duydunuz, ancak gerçek hayatta hiç bir tane görmediniz, bu yüzden "Evet, elbette, adil bir para olduğunu düşünüyorum." Ancak, size bu soruyu sormam bile gerçeği biraz ortaya çıkarıyor, bu yüzden tahmininiz adil olsa da, olmasaydı gerçekten şaşırmayacaksınız. Bu parayı cebinizde değiştirdiğinizden çok daha az şaşırttı (çünkü bunların hepsinin gerçek para birimi olduğunu varsayıyorsunuz ve şu anda bana gerçekten güvenmiyorsunuz çünkü şüpheli davranıyorum).
Şimdi birkaç deneme yaptık. 100 döndürmeden sonra madeni para 53 Kafa verir. Bunun adil bir madeni para olduğundan çok daha eminsin, ama hala olma ihtimaline açıksın. Fark şu ki, bu madalyonun bir çeşit önyargıya sahip olması durumunda oldukça şaşırırsınız.
Özellikle, madalyonun kafaları gösterme olasılığı hakkında (ki bunu göstereceğiz) önceki ve posterior inançlarınızı nasıl temsil edebiliriz ? Sıkça yapılan bir ortamda, önceki inancınız - sıfır hipoteziniz - . Deneyi çalıştırdıktan sonra, null değerini reddedemezsiniz ve bu nedenle, evet, madalyonun muhtemelen adil olduğu varsayımına devam edersiniz. Fakat madalyonun adil olduğuna olan güveninizdeki değişimi nasıl özetleyebiliriz ? Deneyden sonra madalyonun adil olduğuna bahse gireceğiniz bir pozisyondasınız, ancak deneyden önce korkutucu olurdu.θ = 0.5θθ = 0.5
Bayesian ayarında, olasılıkları skaler değerler olarak değil rastgele değişkenler, yani işlevler olarak ele alarak önermelere olan güveninizi kapsüllersiniz. Yerine söyleyerek diyeceğiz ve böylece PDF varyansı olan güvenimizi saklanması. Eğer yüksek bir sapma belirlersek, diyorum ki, "olasılığın 0,5 olduğunu düşünüyorum, ama aslında dünyada gözlemlediğim olasılık bu değerden uzaksa şaşırmam." , ama açıkçası gerçekten o kadar emin değilim. " Düşük bir varyans ayarlayarak, "Sadece olasılığın 0,5 olduğuna inanmıyorum, aynı zamanda deney çok yakın olmayan bir değer sağlarsa çokθ ∼ N ( 0,5 , σ 2 ) θ = 0,5 θ = 0,5 θ = 0,5θ = 0.5θ ∼ N( 0.5 , σ2)θ = 0.5θ = 0.5." Bu yüzden, bu örnekte sen senin öncesinde, önce ortalama aynı kaldı doğruluyor verileri aldıktan sonra. Eğer yüksek varyans ile önceden var denemeyi başlatmak, ancak varyans daha dar olunca. Bizim güveni o Deney yapıldıktan sonra öncekinden çok daha yüksek.θ = 0.5
Peki hesaplamaları nasıl yapıyoruz?
PDF'lerle başlıyoruz ve PDF'lerle bitiyoruz. Bir nokta tahmini bildirmeniz gerektiğinde, posterior dağılımınızın ortalama, medyan veya modu gibi istatistikleri hesaplayabilirsiniz (şu anda girmeyeceğim kayıp fonksiyonunuza bağlı olarak. Sadece ortalamaya sadık kalalım). PDF'niz için kapalı bir form çözümünüz varsa, bu değerleri belirlemek muhtemelen önemsiz olacaktır. Posterior karmaşıksa, posteriordan örnek almak ve çizdiğiniz örnekten istatistik almak için MCMC gibi prosedürleri kullanabilirsiniz.
Önceden Beta ve Binom olasılığınızın olduğu örnekte, posteriorun hesaplanması çok temiz bir hesaplamaya indirgenir. Verilen:
- Önceki:θ ∼ B e t a ( α , β)
- Olabilirlik:X| θ~Binomıbirl(θ)
Sonra posterior şunları azaltır:
- Posterior:θ | X∼ B e t a ( α + ∑ni = 1xben,β+ n - ∑ni = 1xben)
Bu, daha önce bir beta ve binom olasılığınız olduğunda ve DJE tarafından sağlanan hesaplamalarda neden açık olması gerektiğinde olur . Belirli bir önceki olabilirlik modeli her zaman öncekiyle aynı tür dağılım gösteren bir posterior verdiğinde, önceki ve olabilirlik için kullanılan dağılım türleri arasındaki ilişkiye Konjugat denir . Eşlenik ilişkileri olan birçok dağılım çifti vardır ve eşlenik hesaplamaları basitleştirmek için Bayesliler tarafından sıklıkla kullanılır. Belirli bir olasılık göz önüne alındığında, önceden bir konjugat seçerek hayatınızı çok daha kolay hale getirebilirsiniz (eğer varsa ve önceki seçiminizi haklı çıkarabilirsiniz).
Beta (1,1), ortalamanın 1 ve stdev'in 1 olduğu bir PDF'yi ifade ettiğine inanıyorum.
Normal dağılımın ortak parametrelendirilmesinde, iki parametre dağılımın ortalama ve standart sapmasını gösterir. Ancak normal dağılımı bu şekilde parametrelendiriyoruz. Diğer olasılık dağılımları çok farklı parametrelendirilir.
Beta dağılımı genellikle olarak parametrelendirilir burada ve "şekil" parametreleri olarak adlandırılır. Beta dağılımı son derece esnektir ve bu parametrelerin nasıl ayarlandığına bağlı olarak birçok farklı şekil alır . Bu parametreleştirmenin orijinal varsayımınızdan ne kadar farklı olduğunu göstermek için, Beta rasgele değişkenlerin ortalamasını ve varyansını nasıl hesapladığınız aşağıda açıklanmıştır:B e t a ( α , β)αβ
XE[ X]var[ X]∼ B e t a ( α , β)= αα + β= α β( α + β)2( α + β+ 1 )
Gördüğünüz gibi, ortalama ve varyans bu dağılımın parametrelendirilmesinin bir parçası değildir, ancak giriş parametrelerinin basit işlevleri olan kapalı form çözümlerine sahiptir.
Diğer iyi bilinen dağıtımların parametrelendirilmelerindeki farklılıkları açıklayan ayrıntılı bir şekilde ele almayacağım, ancak birkaçına bakmanızı öneririm. Herhangi bir temel metin, hatta Wikipedia bile , parametrelerin değiştirilmesinin dağıtımı nasıl değiştirdiğini açıklamalıdır. Farklı dağılımlar arasındaki ilişkileri de okumalısınız (örneğin, aynı şeydir ).B e t a ( 1 , 1 )Un i fo r m ( 0 , 1 )