Şu anda bu soruyla kendimi boğuşuyorum. İşte size yardımcı olabilecek bir sonuç. Doğrusal modeli düşünün
y=Xβ+ϵ,ϵ∼N(0,σ2)
y∈Rn,β∈Rp,βσ2
L(β,σ2)=(2πσ2)−n/2exp(−||y−Xβ||22σ2)
Ortak olasılık getirilerinin optimize edilmesi
β^=X+y
σ^2=1n||r||2
X+Xr=y−Xβ^σ^21/n1/(n−p)
βσ2βσ2
σ^2=maxσ2∫RpL(β,σ2)dβ
Temel lineer cebir ve Gauss integral formülünü kullanarak şunu gösterebilirsiniz:
σ^2=1n−p||r||2
Bu, onu ortak ML tahmini üzerinde tarafsız ve genel olarak tercih edilen özgürlük derecesi düzeltmesine sahiptir.
Bu sonuçtan, bütünleşik olasılık hakkında doğası gereği avantajlı bir şey olup olmadığını sorabiliriz, ancak bu soruyu cevaplayan herhangi bir genel sonuç bilmiyorum. Konsensüs, entegre ML'nin çoğu tahmin problemindeki belirsizliği hesaba katmada daha iyi olduğu görülmektedir. Özellikle, diğer parametre tahminlerine (dolaylı olarak bile) bağlı bir miktar tahmin ediyorsanız, diğer parametreler üzerinde entegrasyon belirsizlikleri daha iyi açıklar.