Ölçek parametreleri için zayıf bilgilendirici önceki dağılımlar


21

Ölçeğin ne olması gerektiği hakkında kaba bir fikrim olduğunda, ölçek parametreleri için normal dağılımları log (normal dağılımlar, t dağılımları vb.) Olarak kullanıyorum, Bu konuda çok fazla. Bunu kullanıyorum çünkü bu kullanım benim için sezgisel bir anlam ifade ediyor, ancak başkalarının kullandığını görmedim. Bunun gizli bir tehlikesi var mı?


1
Normaller eşlenik önceliklere sahiptir: en.wikipedia.org/wiki/Normal-gamma_distribution . Bunları kullanımı daha kolay bulabilirsin.
whuber

İlginç. Sayısal şeyler yapıyorum, bu dağılımın bir arada olmasının bir avantajı var mı?
John Salvatier

5
Gerçekten benim alanım değil ama bu 'alakalı' olabilir? Gelman A. Hiyerarşik modellerde varyans parametreleri için önceki dağılımlar. Bayesian Analizi 2006; 1: 515-533. dx.doi.org/10.1214/06-BA117A
giderebilirsiniz

Ben bulduk bu Ölçekli-Beta Pérez ve Pericchi önerdiği dağılımı. 2

Normal gibi belirli bir dağıtım için konjugat öncelikleri, sadece bir veri seti verilen bir posterior dağılım olarak o dağılıma yol açan öncüllerdir. Eğer bir konjugat kullanıyorsanız, posterioru hesaplamak için entegrasyon yapma karmaşasına girmeniz gerekmez. İşleri kolaylaştırıyor ancak bugünlerde MCMC çok çeşitli olası önceliklerin kullanılmasını çok kolaylaştırıyor.
Michael R. Chernick

Yanıtlar:


20

Hafifçe bilgilendirici bir dağıtım için bir "ikinci tür Beta dağıtımı" ( kısaca Beta 2 ) kullanmanızı ve güçlü bir inancınız varsa konjugat ters gama dağılımını kullanmanızı öneririm . Bunu söylememin nedeni, konjugat önceliğinin, önceki ve veri çatışması durumunda, öncünün posterior dağılım üzerinde sınırsız bir etkiye sahip olması anlamında sağlam olmamasıdır . Bu davranış benim “dogmatik” dediğim şeydi ve hafif ön bilgi ile doğrulanmıyor .

Sağlamlığı belirleyen özellik , öncekinin ve olasılığın kuyruk davranışıdır. Teknik detayları anlatan çok iyi bir makale burada . Örneğin, bir gözlem (yani keyfi bir şekilde büyük hale gelir) gibi bir konum parametresinin analizinden şekilde seçilebilir (örneğin bir t-dağılımı) sezgisel böyle bir gözlem ile yapın). "Atma" oranı, dağıtımın kuyruklarının ne kadar ağır olduğuna bağlıdır.yi

Hiyerarşik model bağlamında bir uygulama göstermektedir Bazı slaytlar bulunabilir Burada (Şekil beta matematiksel bir şekilde 2 , bir kağıt, dağıtım) burada .

Eğer hiyerarşik modelleme bağlamında değilseniz, o zaman ben posterior karşılaştırarak önermek (ya da her türlü oluşturduğunuz sonuçları) ama kullanmak istiyorsunuz önce Jeffreys tarafından verilen bir ölçek parametresi için . Bu, her iki parametresi de sıfıra yaklaştığında Beta 2 yoğunluğunun bir sınırı olarak oluşturulabilir . Bir yaklaşım için küçük değerler kullanabilirsiniz. Ama çözüm bulmak için çalışacağını söyledi analitik değil sadece kendini kurtarmak bazı hesaplamalı zaman, ama sen, çünkü eğer mümkünse (ve uzak belki olabilir ilerledikçe değilse tam bir analitik çözümü, analitik çözüm elde) Ayrıca modelinizde neler olup bittiğini daha iyi anlaması da olasıdır .p(σ)1σ

Bir başka alternatif (göre ortalama eşit kısıtlamaların mevcut bulunan önceden bilgi belirtmektir , varyans için eşit IQR e eşit, değerleriyle, vb tek başına belirtilmiş) ve kullanılacak maksimum entropi dağılımı (Edwin Jaynes veya Larry Bretthorst tarafından yapılan herhangi bir çalışmayı araştırın), Maksimum Entropi'nin ne olduğunu ve ne olmadığını iyi bir şekilde açıklamak için) Jeffrey'in “değişmez ölçüsü” . MVIQRM,V,IQRm(σ)=1σ

MaxEnt "Rolls Royce" versiyonudur, Beta 2 ise bir "sedan" versiyonudur. Bunun nedeni, MaxEnt dağıtımının "en az" olanı sizin içine girdiğiniz kısıtlamalara tabi olduğunu varsaymaktır (örneğin, hiçbir kısıtlama, sadece Jeffrey'leri önceden almanız anlamına gelmez), Beta 2 dağıtımı ise bazı "gizli" özellikleri içerebilir. Özel durumunuzda istenebilir veya istenmeyebilir (örneğin, önceki bilgiler verilerden daha güvenilirse , Beta 2 kötüdür).

MaxEnt dağıtımının diğer güzel özelliği , veri oluşturma mekanizmasında çalışan belirtilmemiş herhangi bir kısıtlama yoksa , MaxEnt dağıtımının ezici bir şekilde göreceğiniz en muhtemel dağıtım olmasıdır (milyarlar ve trilyonlardan birine oranla bahsediyoruz). Bu nedenle, gördüğünüz dağıtım MaxEnt değilse, o zaman doğru işlemle ilgili olarak belirtmediğiniz ilave kısıtlamalar olabilir ve gözlenen değerler bu kısıtlamanın ne olabileceğine dair bir ipucu sağlayabilir.


@probabilityislogic Güzel cevap. Üçüncü paragrafta bahsettiğiniz makaleleri nerede bulabileceğimi biliyor musunuz? Bağlantılar çalışmıyor.

1
kağıt için çalışan biri burada . Bir konferans "objektif bayes 09" web sitesinde (Valencia toplantıları) yapıldı. Bunun slaytlar iyi dizi oldu konferans için web sitesi ... yayından kaldırıldı olarak :( yazık slaytlar, artık mevcut olacak sanmıyorum O Horshoe önce sen verilen bağlantıya bakmak ilginç yapar..
Olasılık

@probabilityislogic Belki bir şey eksik ama bir başvuru bulamıyor BA gazetede. Betbir2

@Procrastinator Yalnızca uygun öncelikler istediğinizi varsaymak doğru muyum? Söylemedin ama uygunsuz önceliklere izin verirseniz, daha önce belirtilen Jeffrey'lerin öncelikleri işe yarayacak ve Jeffrey'in olasılık teorisini, Dennis Lindley'in kitaplarını ya da istatistik ansiklopedisinin kitaplarından alıntı yapabilirim. İsteğin cevabı bulmak için Google’ı kullanarak kontrol edebileceği ve bulunamıyorsa literatürde hariç tuttuğunuzların dışında hiçbir şey yoktur.
Michael R. Chernick

@MichaelChernick Evet, haklısınız, sadece öncelikli konularla ilgileniyorum. Bunun nedeni, uygun öncelikler için (1) postererin varlığının bazı modellerle kısıtlayıcı olmaması ve (2) ilginç bir teklifin eksik olup olmadığını kontrol etmek istediğimdir. Gelman'ın, Pericchi'nin ve Gamma öncelilerinin literatürde en popüler olduğu gibi göründüğü konusunda hemfikirim ama aynı zamanda 'sağlam' çıkarımlar üretmek için ağır kuyruklu öncelikler önerme yönünde bir eğilim olduğunu da belirttim.

13

Daniels tarafından verilen yazı, varyans için bir miktar büzülmeyi karşılaştırmaktadır. Bunlar uygun öncelikler ama kaçının bilgilendirici olamayacağından emin değilim. Ancak, aynı zamanda bilgi vermeyen önceliklerin bir listesini de sunmaktadır (hepsi uygun değil). Referans aşağıda.

MJ Daniels (1999), Hiyerarşik modellerde varyans için A , Canadian J. Stat. , vol. 27, hayır. 3, sayfa 567-578.

Sabıkası

  1. K
  2. τ-2
  3. τ-1
  4. 1/(σ2+τ2)
  5. σ/(2(σ2+τ2)3/2)
  6. σ2/(σ2+τ2)
  7. σ/(2τ(σ+τ)2)

İlgili bir damardaki daha yeni bir makale ise aşağıdaki gibidir.

A. Gelman (2006), Hiyerarşik modellerde varyans parametreleri için önceki dağılımlar , Bayesian Analysis , vol. 1, hayır. 3, sayfa 515-533.


2
(+1) Bu iyi bir keşif. Daniels makalesine sabit bir bağlantı ve onu tamamlayacak görünen başka bir referans ekledim.
kardinal

4

(Soru bayat, ancak sorun değil)

Şahsen, sezginin bir anlam ifade ettiğini düşünüyorum. Yani, eşlenikliğin matematiksel düzenine ihtiyacınız yoksa, bir konum parametresi için hangi dağılımı kullanırsanız kullanın, aynı olanı bir ölçek parametresinin kütüğü için kullanmalısınız. Demek istediğin şudur: normal bir öncekinin eşdeğerini kullanın.

Bir konum parametresi için normalden önce normal kullanır mıydınız? Çoğu insan, varyansı büyük yapmadığınız sürece, buradaki diğer cevaplarda açıklanan sınırsızlıklar nedeniyle muhtemelen biraz "çok dogmatik" diyebilir (sınırsız etki). Bir istisna, eğer ampirik koylar yapıyorsanız; yani, öncekilerinizin parametrelerini tahmin etmek için verilerinizi kullanmak.

Eğer "zayıf bilgilendirici" olmak istiyorsanız, muhtemelen daha büyük yazılara sahip bir dağıtım seçersiniz; bariz adaylar t dağılımları. Gelman'ın en son tavsiyesi 3-7 df ile kullanmak gibi görünüyor. (Bağlantının, konum için yapacağınız ölçek günlüğü için de aynı şeyi yapmak istediğiniz önerimi de desteklediğini unutmayın.) Bu nedenle lognormal yerine, log-student-t kullanabilirsiniz. Bunu başarabilmek için, şöyle bir şey yapabilirsiniz:

real log_sigma_y; //declare at the top of your model block
//...some more code for your model
log_sigma_y <- log(sigma_y); increment_log_prob(-log_sigma_y);
log_sigma_y ~ student_t(3,1,3); //This is a 'weakly informative prior'.

Ancak, eğer yukarıdaki kod sizin için çok karmaşıksa, iki uyarı ile önceden bir lognormal alabilirsiniz. İlk olarak, önceki kararın varyansını, "emin olmadığınız" hakkındaki kaba tahmininizden birkaç kat daha genişletin; Daha önce zayıf bilgilendirici, daha bilgilendirici değil. İkincisi, modelinize uyduktan sonra, parametrenin arka ortalamasını kontrol edin ve logunun lognormalin merkezinden çok uzakta olmadığından emin olun. "Çok uzak değil" muhtemelen şu anlama gelir: iki standart sapmadan az ve tercihen birden fazla SD değil.


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.