"İstatistiklerin Tümü" adlı kitabında Prof. Larry Wasserman aşağıdaki örneği sunmaktadır (11.10, sayfa 188). Bir yoğunluk sahip olduğunu varsayalım öyle ki f ( x ) = c , g a,bilinen(negatif olmayan, integre) işlevi ve normalizasyon sabit c > 0 olduğubilinmemektedir.
Hesaplayamadığımız durumlarda c = 1 / ∫ g ( x ) ile ilgileniyoruz . Örneğin, f çok yüksek boyutlu bir örneklem uzayında bir pdf olabilir.
C bilinmemesine rağmen örnek almamıza izin veren simülasyon teknikleri olduğu iyi bilinmektedir . Dolayısıyla, bulmaca şudur: Böyle bir örnekten c'yi nasıl tahmin edebiliriz ?
Prof. Wasserman aşağıdaki Bayes çözümü anlatılmaktadır: let için bazı ön olmak c . Olabilirlik L x ( c ) = n ∏ i = 1 f ( x i ) = n ∏ i = 1 ( c Bu nedenle, posterior π ( c ∣ x ) ∝ c n π ( c ) , x 1 , … , x n örnek değerlerine bağlı değildir. Bu nedenle, bir Bayes c .Hakkında çıkarımlarda bulunmak için örnekteki bilgileri kullanamaz.
Prof. Wasserman, "Bayesanlar olasılık işlevinin kölesidir. Olabilirlik ters gittiğinde Bayesci çıkarımı olur" diyor.
Yığıcı arkadaşım için sorum şu: Bu özel örnek ile ilgili olarak, Bayesian metodolojisinde (bir şey varsa) neyin yanlış gitti?
PS Prof. Wasserman'ın cevabını nazikçe açıkladığı gibi, örnek Ed George'e bağlı.