Kesinlikle hayır, sık sık birbirlerinin yerine kullanılsalar da. Bir parametre ( ) üzerinde belirli bir şekilde belirsiz olan (nispeten bilgisiz, gerçekten bazı değerleri başkalarına göre değil) aslında başka bir dönüşüm öncesinde çok bilgilendirici olabilir . Bu, başlangıçta mümkün olduğunca bilgilendirici olmayacak şekilde inşa edilen, Jeffreys’in önceliği için motivasyonun bir parçası.f ( θ )θf( θ )
Belirsiz öncelikler, modelinize oldukça sefil şeyler de yapabilir. Şimdi-klasik bir örneği kullanarak olarak bir hiyerarşik model içerisinde varyans parçaları üzerinde önceki değerler.ε → 0I , n v e r s e G bir m m bir (ε,ε)ϵ → 0
Uygun olmayan sınırlama önceliği, bu durumda uygunsuz bir posterior verir. Popüler bir alternatif, gerçekten küçük olacaktı ve bu da neredeyse tekdüze görünen bir açtı . Ancak, aynı zamanda neredeyse uygunsuz olan bir posteriorla sonuçlanır ve model uyumu ve çıkarımlar zarar görür. Tam bir açıklama için hiyerarşik modellerde varyans parametreleri için Gelman's Prior dağılımlarına bakınız .R +εR+
Düzenleme: @ csgillespie (haklı!) Sorunuzu tam olarak cevaplamadığımı belirtiyor. Aklıma göre, bilgilendirici olmayan bir öncelik, özellikle parametre alanın bir alanını diğerine göre tercih etmemesi bakımından belirsizdir, ancak bunu yaparken diğer parametrelerde bilgilendirici öncelikleri tetiklememelidir. Dolayısıyla, bilgilendirici olmayan bir öncelik belirsizdir, ancak belirsiz bir öncelik mutlaka zorunlu değildir. Bunun devreye girdiği bir örnek Bayesian değişken seçimidir; değişken dahil etme olasılıkları öncesinde bir "belirsiz", modelde yer alan toplam değişken sayısından önce oldukça bilgilendirici olabilir!
Bana öyle geliyor ki, gerçekten bilgisiz olan öncelikleri araştırmanın sessiz olduğu söylenebilir (birçoğu aynı fikirde değildir); "zayıf" olarak adlandırılan bilgilendirici öncelikleri kullanmak daha iyidir (sanırım, genellikle bir anlamda belirsizdir). Gerçekten, söz konusu parametre hakkında ne sıklıkta hiçbir şey bilmiyoruz ?