MCMC örnekleyicileri için neden Jeffreys veya entropi temelli önceliklerin kullanılmasına karşı öneriler var?


12

On onların wiki sayfasından Stan devletin geliştiriciler:

Sevmediğimiz bazı ilkeler: değişmezlik, Jeffreys, entropi

Bunun yerine, birçok normal dağıtım önerisi görüyorum. Şimdiye kadar örnekleme itimat etmedi Bayes yöntemleri kullanılır ve nazik anlamış mutlu oldu neden binom olasılıkları için iyi bir seçimdi.θ~Beta(α=12,β=12)


1
Genel yorum: Yazılım belgeleri, yazılımın ne yaptığına ve yapmadığına ilişkin istatistiksel bağımsız değişkenleri her zaman yeniden özetlemez. Bu, baktığım çoğu R paketi için geçerli ve Stan'ın aynısını duymak beni şaşırtmadı. Andrew Gelman, açıkça, üretken bir yazardır.
Nick Cox

1
Daha fazla genel yorum: Bu tür bir soruyu, kısmen belirli kişilerle ilgili olduğu için çok tatmin edici bulmuyorum. Canlı yazarlar bir yeri açıklamıyorsa ve burada açıkça aktif değilse, onlara sormaları için bir e-posta gönderin. Soyutlamanın farklı yaklaşımların göreli değerleri hakkında soru sormak daha tatmin edicidir. Bazen, eksik bir şey bulursanız, kendi yazılımınızı yazmak da dahil olmak üzere her zaman farklı yazılımlar kullanabileceğinizi söylemek doğru olur. Açıklamama: hiç kullanılmamış Stan.
Nick Cox

@NickCox Bu sorunun anonimleştirmeden fayda sağlayacağını düşünmüyorum, çünkü (1) bir samling yazılımının bağlamı önemlidir (2) benim izlenimim, Jeffreys'in önceliklerinin reddedilmesinin, dikkat çekmeye değecek kadar sıra dışı olmasıdır. ünlü bir kaynağın bu iddiayı öne sürdüğünü. (3) Bir soruda birini belirtmenin kafa karıştırıcı olduğunu düşünmüyorum.
wirrbel

1
Andy "Sevmediğimiz bazı ilkeler: değişmezlik, Jeffreys, entropi" yazdı, ancak kitabında
Ben Goodrich

1
Ayrıca, bu makale üç Stan geliştiricisi arasındaki öncelikler hakkındaki en son düşünceleri içermektedir.
Ben Goodrich

Yanıtlar:


13

Bu, elbette, bir araya gelen ve bir wiki yazan çeşitli görüşlere sahip çeşitli bir insan grubudur. Bazı yorumlarla bildiğimi / anladığımı özetliyorum:

  • Hesaplama kolaylığına dayalı olarak önceden seçim yapmak yetersiz bir gerekliliktir. Örneğin bir Beta (1/2, 1/2) kullanmak, sadece eşlenik güncellemeye izin verdiği için iyi bir fikir değildir. Tabii ki, üzerinde çalıştığınız sorunun türü için iyi özelliklere sahip olduğu sonucuna vardığınızda, bu iyi ve aynı zamanda uygulamayı kolaylaştıran bir seçim yapabilirsiniz. Uygun varsayılan seçimlerin sorunlu olduğu birçok örnek vardır (Gibbs örneklemesini etkinleştirmeden önce Gamna'ya (0.001, 0.001) bakın).

  • Stan ile - WinBUGS veya JAGS'den farklı olarak - (şartlı olarak) konjugat öncüllerine özel bir avantaj yoktur. Yani hesaplama yönünü biraz göz ardı edebilirsiniz. Tamamen değil, çünkü çok ağır kuyruklu öncelikler (veya yanlış öncelikler) ve parametreleri iyi tanımlamayan verilerle, problemlerle karşılaşıyorsunuz (gerçekten Stan'a özgü bir sorun değil, ancak Stan bu sorunları tanımlamak ve kullanıcıyı uyarmak konusunda oldukça iyi mutlu örnekleme yerine).

  • Jeffreys ve diğer "düşük bilgi" öncelikleri bazen yanlış olabilir veya yüksek boyutlarda (bunları türetmeyi düşünmeyin) ve seyrek verilerle anlaşılması biraz zor olabilir. Bu sadece yazarların onlarla asla rahat etmemeleri için çok sık soruna neden olabilir. Bir şey üzerinde çalıştıktan sonra daha fazla öğrenir ve rahat edersiniz, bu nedenle ara sıra fikir tersine döner.

  • Seyrek veri ayarında, önceki gerçekten önemlidir ve bir parametre için tamamen mantıksız değerlerin mantıksız olduğunu belirtebiliyorsanız, bu çok yardımcı olur. Bu, zayıf bilgilendirici öncelikler fikrini motive eder - gerçekten tamamen bilgilendirici öncelikler değil, makul değerler için en fazla desteğe sahip olanlar.

  • Aslında, parametreleri gerçekten iyi tanımlayan çok fazla veriye sahipsek, neden bilgisiz önceliklerle rahatsız olduğunu merak edebilirsiniz (sadece maksimum olasılığı kullanabilir). Tabii ki, birçok neden var (patolojilerden kaçınma, posteriorların "gerçek şeklini" alma), ancak "bol miktarda veri" durumunda bunun yerine zayıf bilgilendirici önceliklere karşı gerçek bir argüman yok gibi görünüyor.

  • Belki biraz garip bir şekilde N (0, 1), birçok uygulama için lojistik, Poisson veya Cox regresyon katsayısı için şaşırtıcı derecede iyi bir öncedir. Örneğin bu, gözlemlenen tedavi etkilerinin pek çok klinik çalışma boyunca dağılımıdır.

Ayrıntılı cevap için teşekkür ederim. Şaşkınlığım konjugasyon hakkında o kadar da fazla değil sanırım (çünkü bunu doğru anlarsam, Jeffreys önceliklerinin konjugat önceliği olması gerekmez, sadece yeniden ölçüm altında değişmez olmaları gerekir). Bu yüzden eşlenik önceliklere karşı tavsiyeyi tamamen anlıyorum.
wirrbel

Öncelikle Jeffreys ile ilgili endişe çoğunlukla uygun bir önceki olmayabilir ve tam olarak anlamadığınız çıkarımınız üzerinde bazı etkileri olabilir bazı yüksek boyutlu olmasıdır. Belki de birileri seyrek verilerle ilgili bir endişe olduğunu düşünüyorum, ancak belki de bazı sorunların ortaya çıktığı seyrek verilerle bir örnek gösterebilir (herhangi birinden haberdar değilim). Artı Jeffreys önceki ve diğer çeşitli "bilgilendirici" seçenekleri ile, aslında türetmek zorunda kalma rahatsızlığı vardır.
Björn

8

Bunu yapmak için herhangi bir bilimsel / matematiksel gerekçe sağlamazlar. Geliştiricilerin çoğu bu tür öncelikler üzerinde çalışmaz ve büyük varyanslara sahip normal öncelikler (bazı durumlarda bilgilendirici olabilir) gibi daha pragmatik / sezgisel öncelikler kullanmayı tercih ederler. Ancak, bu konuda çalışmaya başladıktan sonra Entropi'ye (KL sapması) dayanan PC önceliklerini kullanmaktan mutluluk duyuyorlar.

G,birmmbir(0.001,0.001)


Gelman iddiasıyla bilgilendirici bir köprü / kaynak sağlayabilir misiniz?
Jim

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.