Bu, elbette, bir araya gelen ve bir wiki yazan çeşitli görüşlere sahip çeşitli bir insan grubudur. Bazı yorumlarla bildiğimi / anladığımı özetliyorum:
Hesaplama kolaylığına dayalı olarak önceden seçim yapmak yetersiz bir gerekliliktir. Örneğin bir Beta (1/2, 1/2) kullanmak, sadece eşlenik güncellemeye izin verdiği için iyi bir fikir değildir. Tabii ki, üzerinde çalıştığınız sorunun türü için iyi özelliklere sahip olduğu sonucuna vardığınızda, bu iyi ve aynı zamanda uygulamayı kolaylaştıran bir seçim yapabilirsiniz. Uygun varsayılan seçimlerin sorunlu olduğu birçok örnek vardır (Gibbs örneklemesini etkinleştirmeden önce Gamna'ya (0.001, 0.001) bakın).
Stan ile - WinBUGS veya JAGS'den farklı olarak - (şartlı olarak) konjugat öncüllerine özel bir avantaj yoktur. Yani hesaplama yönünü biraz göz ardı edebilirsiniz. Tamamen değil, çünkü çok ağır kuyruklu öncelikler (veya yanlış öncelikler) ve parametreleri iyi tanımlamayan verilerle, problemlerle karşılaşıyorsunuz (gerçekten Stan'a özgü bir sorun değil, ancak Stan bu sorunları tanımlamak ve kullanıcıyı uyarmak konusunda oldukça iyi mutlu örnekleme yerine).
Jeffreys ve diğer "düşük bilgi" öncelikleri bazen yanlış olabilir veya yüksek boyutlarda (bunları türetmeyi düşünmeyin) ve seyrek verilerle anlaşılması biraz zor olabilir. Bu sadece yazarların onlarla asla rahat etmemeleri için çok sık soruna neden olabilir. Bir şey üzerinde çalıştıktan sonra daha fazla öğrenir ve rahat edersiniz, bu nedenle ara sıra fikir tersine döner.
Seyrek veri ayarında, önceki gerçekten önemlidir ve bir parametre için tamamen mantıksız değerlerin mantıksız olduğunu belirtebiliyorsanız, bu çok yardımcı olur. Bu, zayıf bilgilendirici öncelikler fikrini motive eder - gerçekten tamamen bilgilendirici öncelikler değil, makul değerler için en fazla desteğe sahip olanlar.
Aslında, parametreleri gerçekten iyi tanımlayan çok fazla veriye sahipsek, neden bilgisiz önceliklerle rahatsız olduğunu merak edebilirsiniz (sadece maksimum olasılığı kullanabilir). Tabii ki, birçok neden var (patolojilerden kaçınma, posteriorların "gerçek şeklini" alma), ancak "bol miktarda veri" durumunda bunun yerine zayıf bilgilendirici önceliklere karşı gerçek bir argüman yok gibi görünüyor.
- Belki biraz garip bir şekilde N (0, 1), birçok uygulama için lojistik, Poisson veya Cox regresyon katsayısı için şaşırtıcı derecede iyi bir öncedir. Örneğin bu, gözlemlenen tedavi etkilerinin pek çok klinik çalışma boyunca dağılımıdır.