Bayesanlar: Olasılık fonksiyonunun köleleri?


62

"İstatistiklerin Tümü" adlı kitabında Prof. Larry Wasserman aşağıdaki örneği sunmaktadır (11.10, sayfa 188). Bir yoğunluk sahip olduğunu varsayalım öyle ki f ( x ) = cf , g a,bilinen(negatif olmayan, integre) işlevi ve normalizasyon sabit c > 0 olduğubilinmemektedir.f(x)=cg(x)gc>0

Hesaplayamadığımız durumlarda c = 1 /g ( x ) ile ilgileniyoruz . Örneğin, f çok yüksek boyutlu bir örneklem uzayında bir pdf olabilir.c=1/g(x)dxf

C bilinmemesine rağmen örnek almamıza izin veren simülasyon teknikleri olduğu iyi bilinmektedir . Dolayısıyla, bulmaca şudur: Böyle bir örnekten c'yi nasıl tahmin edebiliriz ?fcc

Prof. Wasserman aşağıdaki Bayes çözümü anlatılmaktadır: let için bazı ön olmak c . Olabilirlik L x ( c ) = n i = 1 f ( x i ) = n i = 1 ( cπc Bu nedenle, posterior π ( c x ) c n π ( c ) , x 1 , , x n örnek değerlerine bağlı değildir. Bu nedenle, bir Bayes c .Hakkında çıkarımlarda bulunmak için örnekteki bilgileri kullanamaz.

Lx(c)=i=1nf(xi)=i=1n(cg(xi))=cni=1ng(xi)cn.
π(cx)cnπ(c)
x1,,xnc

Prof. Wasserman, "Bayesanlar olasılık işlevinin kölesidir. Olabilirlik ters gittiğinde Bayesci çıkarımı olur" diyor.

Yığıcı arkadaşım için sorum şu: Bu özel örnek ile ilgili olarak, Bayesian metodolojisinde (bir şey varsa) neyin yanlış gitti?

PS Prof. Wasserman'ın cevabını nazikçe açıkladığı gibi, örnek Ed George'e bağlı.


10
Bu örnek, herhangi bir Bayesian analizinden çok, sayısal bir entegrasyon gerçekleştirmenin tuhaf ve etkisiz bir yoluna benziyor.
whuber

2
Bayesian’nin hakkında hiçbir şey bilmediğini nasıl söyleyebilirsiniz ? Bu durum böyle olsaydı biz olurdu π ( c | x ) alfa π ( c ) . Açıkça değil. cπ(c|x)π(c)
Olasılık

2
g()ccg()any

Ben resmen Bayes yaklaşımı kurduğunuz olabilir Xi'an'ın kontrendikasyon değildir, Zen'in itiraz @ üstesinden ilgi eksikliği ve sadece sayısal entegrasyon doğruluğunu değerlendirmek biter.
phaneron

1
Larry'nin blogunda güzel bir takip: normaldeviate.wordpress.com/2012/10/05/…
Zen

Yanıtlar:


43

Bu benim makalemde (sadece internette yayınlanmaktadır) "Larry Wasserman Örneği Üzerine" [ 1 ] ve Wasserman, Robins ve Wasserman'ın blogunda yer alan diğer yorumcular arasında benimle blog yazısında şöyle konuştu : [ 2 ]

Kısa cevap, Wasserman’ın (ve Robins’in) yüksek boyutlu alanlardaki önceliklerin “ilgilenilen parametrenin neredeyse kesin olarak bilinen bir priori olarak bilindiğini ya da açıkça ilgili bir sorunun (seçim yanlılığı) olduğunu ima eden“ olması gerektiğini ”öne sürerek paradokslar üretmesidir. var olmamak neredeyse kesin olarak bilinir. Aslında, mantıklı öncelikler bu özelliklere sahip olmayacaktı. Bunu birlikte çizmek için bir özet blog yazısı yazma sürecindeyim. Wasserman ve Ritov’in Hameling ve Toussaint’in göz önünde bulundurduğu örneklere duyarlı Bayesian yaklaşımlarını gösteren mükemmel bir 2007 makalesi var: “Robins-Ritov’in sorunu için Bayesian tahmincileri” [ 3 ]


12
Katkılarınız için teşekkürler, Prof. Sims. Cevabımı aşağıda veriyor muyum? PS Şimdi SE'de Nobel Ödülleri veriyoruz. Peki ya bu? nobelprize.org/nobel_prizes/economics/laureates/2011/sims.html
Zen

1
@ChrisSims Profesör Sims Geldiğiniz ve çok yetkili cevabınızla cevabımı uçurduğunuz için teşekkür ederiz!
Michael Chernick

4
Bu cevabın toplam oy oranının en yüksek olduğu gerçeğinden endişe duyuyorum (şu an itibariyle). Prof. Wasserman'ın belirttiği gibi, Prof. Sims’in cevabı Zen’in istediğinden tamamen farklı bir bilmece hakkında. Ben birçok insanın Sims'in sağladığı bağlantıları okumadan ve anlamadan bunu lekelediğine inanıyorum.
Camgöbeği

3
Cyan, Prof. Sim'in bu bilmeceyle ilgili yorumlarını Link [1], WassermanComment.pdf, p. 10, Bölüm VII. Postscript 2.
madprob

43

c

1/Xg(x)dx
cx1,,xncc(Yukarıdaki değerdeki Dirac kütlesi dışında). Bu en azından istatistiksel bir problem değil, sayısal bir problemdir .

x1,,xnc


4
Olabilirlik gerçek koşullu bir yoğunluk ise, uygun bir öncelikle başlamak ve uygunsuz bir posterior sona erdirmek mümkün değildir!
Xi'an,

πcπX1,X2,,XnccRx=rnorm(100,c,1)ccxcc

3
Ben de Finetti değilim, bu yüzden ona cevap veremem!
Xi'an,

3
f(x1,,xn|c)

40

Örnek tuhaf olduğuna katılıyorum. Gerçekten bir bilmeceden daha fazlası demek istemiştim. (Örnek aslında Ed George'dan kaynaklanmaktadır.)

cc

Her halükarda, kağıt

A. Kong, P. McCullagh, X.-L. Meng, D. Nicolae ve Z. Tan (2003), Monte Carlo entegrasyonu için bir istatistiksel model teorisi , J. Royal Statistic. Soc. B , cilt. 65, hayır. 3, 585–604

(tartışma ile) esas olarak aynı problemi ele alır.

Chris Sims'in cevabında bahsettiği örnek, çok farklı bir nitelikte.


3
Profesör Wasserman Örneğinizi ve tarihini açıkladığınız ve açıkladığınız için teşekkür ederiz. Stanford'da lisansüstü bir öğrenciydim ve Ed George ile üst üste geldim. Stanford İstatistik Bölümü, o zamanlar Bayesli olmayanlardı, ancak Efron ve Stein ile ampirik Bayes'le birlikteydik. Bölüm çok açık fikirliydi ve Dennis Lindley bir yaz okuduğum Bayesian istatistiklerinde yüksek lisans dersi verdi. Bir şekilde Ed tam teşekküllü bir Bayesian olmaya dönüştürüldü ve hatta aptallar için Gibbs örneklemesi üzerine bir yazı bile yazdı (elbette bu unvanla olmasa da).
Michael Chernick

1
"Tüm İstatistikler" ve "Tüm Parametrik Olmayanlar" kitaplarınızı okumaktan zevk alıyorum.
Michael Chernick

1
belki de tesadüfen değil, bu makaleyi Kong vd. (2003), grup dönüşümlerinin verimlilikten ziyade ölçüt üzerinde kullanılmasının olumsuz etkililiğini göstermektedir. Son zamanlarda, Xiao-Li beni daha olumlu bir kağıt algısına yöneltti ...
Xi'an

1
"Sayısal integrali yapamayacağınızı varsayalım." Mantıksal belirsizliğin (ki bunun bir örneği olduğunu) hatırı sayılır çabalara rağmen analize karşı koyduğunu biliyorum.
John Salvatier

cgg(x1)g(x2)g

23

g:RRCX1,,XnC=cfXiC(xic)=cg(xi)c>0

fXiC(c) cc=(g(x)dx)1CCπ

x=(x1,,xn)

Lx(c)=i=1n(cg(xi)),
cx

π(c)=1c2I[1,)(c).
0π(c)dc=1
π(cx)1c2nI[1,)(c).
01c2nI[1,)(c)dc
n1

Bu imkansız: Biliyoruz ki, uygun bir önceliğe başlarsak, posteriorumuzun olası her örnek için uygunsuz olamayacağını biliyoruz (bir dizi boş önceden tahmin edilebilirlik olasılığı içinde uygunsuz olabilir).


+

1
Merhaba Michael. Elbette şunları yapabilirsiniz: Gama, Lognormal, vb., Bunun cevabın nasıl bir ilişkisi olduğunu anlamıyorum. Muhtemelen ne dediğini anlamıyorum.
Zen,

Argümanı takip etmekte sorun yaşıyorum. F için koşullu yoğunluğun sadece bir c için var olduğunu ama bunun doğru olmadığını söylüyorsunuz. Olasılık ifadesinin neden geçersiz olduğunu ve uygun bir önceki ve bir şekilde yanlış bir posterior dağılıma yol açtığını göstererek çelişkiyle nasıl kanıtlandığını anlamıyorum.
Michael Chernick

Bana öyle geliyor ki konunun özü, verilerin c'den gerçekten bağımsız olduğu ve c hakkında hiçbir bilgi içermediğidir. Bence c'yi içeren bir olasılık işlevi olduğunu söyleyebilirsin, ancak bu olasılık c'nin bir işlevi olarak maksimize edilemez. Her c seçimi için f = cg olduğunu düşünüyorum.
Michael Chernick

4
g(.)g(.)p(c|g(.))=δ(c0g(x)dx)p(Z|XY)p(Z|X)YZX

11

Örnek biraz tuhaf ve mahkumdur. Olasılığın ters gitmesinin nedeni, g'nin bilinen bir fonksiyon olmasıdır. Bilinmeyen tek parametre, olasılığın bir parçası olmayan c'dir. Ayrıca g bilindiği için, veriler size f hakkında hiçbir bilgi vermez. Uygulamada böyle bir şeyi ne zaman görüyorsunuz? Yani posterior öncekiyle sadece orantılıdır ve c ile ilgili tüm bilgiler öncekindedir.

Tamam ama bir düşünün. Sıklık yapanlar maksimum ihtimal kullanırlar ve bu yüzden sıklık yapan kişiler bazen de olabilirlik işlevine güvenirler. Frekans uzmanı, parametreleri söyleyebileceğiniz diğer yollarla tahmin edebilir. Ancak bu pişirilmiş problem sadece bir c parametresine sahiptir ve c hakkındaki verilerde hiçbir bilgi yoktur. G bilindiği için, veri periyodunun dışına alınabilecek bilinmeyen parametrelerle ilgili istatistiksel bir problem yoktur.


cf^fxc^=f^(x)/g(x)c

4
@ Zen Tamam bu örneğe bakalım. Neden hiç veri toplayamıyorsun? Biliyoruz g. Böylece c'yi, herhangi bir şeyi tahmin etmek zorunda kalmadan istediğimiz doğruluk seviyesine göre belirlemek için sayısal olarak bütünleştirebiliriz! C'yi hesaplayamadığımız varsayımı, bu, g'yi x'in bir fonksiyonu olarak bilmemize rağmen onu bütünleştiremeyeceğimiz anlamına gelir! Bence onun örneği zayıf ve tartışma da öyle ve kitaplarının genel olarak konuşmasını seviyorum.
Michael Chernick

11

c

g()g()g()g()

g()g()


Sürprizin daha fazla oy hakkı olmadığını söyledi. Bu, meselenin özüne gelir; bu, bir işlevin ne olduğunu "bildiğiniz" iddiası değildir; onu herhangi bir noktada değerlendirebilirsiniz. Bir işlevi "bildiğiniz" derken daha uygun bir kriterin, üzerinde herhangi bir sürekli doğrusal işlevi değerlendirme yeteneği olduğunu düşünüyorum.
Nick Alger

@Nick Alger: Millet, ilgisini kaybetti. Bunu kışkırtmıyorum çünkü Bayes olduğuna ikna olmadım - D setindeki xi (xi, f (xi)) çalışmada gözlenen veya rastgele oluşturulan xi'ye mi işaret ediyor? Birincisi, Bayes, ancak birkaç saniye hesaplama süresi olan basit MC ile yenmek çok kolay (bu nedenle iyi çalışmaz) veya Bayes değil (verilere göre şartlandırılmadı).
phaneron

-2

Mümkün tanımını uzanabilir bilinenler (edildi referans noktası için eksik veri sağlamak için veri uzantısına benzer gözlendi ancak kayıp) NULL (oluşturulan herhangi bir veri) içermesi.

π(c)=1c2I[1,)(c).

c=(g(x)dx)1

fXaC(xac)fXiC(xic)=c1g(xi)

faXaC(xac)=0

Dolayısıyla, posterior 0 veya 1 olur (uygun), ancak yukarıdaki veri modelindeki olasılık mevcut değildir (çünkü veri modelinde gereken koşulu belirleyemezsiniz.)

Demek ABC yapıyorsun.

Önceden bir "c" çizin.

(g(x)dx)1

Tutulan “c'ler, gerçek posteriorun yaklaşık bir değeri olacaktır.

(Yaklaşımın doğruluğu epsilona ve bu yaklaştırmada şartlanma yeterliliğine bağlı olacaktır.)


-5

Bir dakika ne? sahipsiniz.

π(c|x)=(Πig(xi))cnπ(c),
{xi}

2
xf(xc)π(c)dci=1ng(xi)
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.