Hangisi daha iyi maksimum olasılık veya marjinal olabilirlik ve neden?


13

Regresyon yaparken şu tanımdan geçersek: Kısmi olasılık, profil olasılığı ve marjinal olasılık arasındaki fark nedir?

O, Maksimum Olabilirlik
L'yi maksimuma çıkaran β ve θ'yı bulun (β, θ | data).

Öte yandan, Marjinal Olasılık
θ koşullu β'nun olasılık dağılımını belirleyebileceğimiz gerçeğinden yararlanarak θ olasılık denkleminden bütünleştiriyoruz.

Hangisini en üst düzeye çıkarmak için daha iyi bir yöntemdir ve neden?

Yanıtlar:


14

Bunların her biri farklı bir yorumla farklı sonuçlar verecektir. Birincisi en muhtemel olan , θ çiftini , ikincisi (marjinal olarak) en muhtemel olan β'yi bulur . Dağıtımınızın şöyle göründüğünü düşünün:βθβ

    β=1β=2
θ=10.0 0.2 
θ=20.1 0.2 
θ=30.3 0.2 

O zaman maksimum olabilirlik yanıtı ( θ = 3 ), maksimum marjinal olabilirlik yanıtı β = 2'dir (çünkü θ üzerinde marjinalleştirme , P ( β = 2 ) = 0.6 ).β=1θ=3β=2θP(β=2)=0.6

Genel olarak, marjinal olasılığın genellikle istediğiniz şey olduğunu söyleyebilirim - eğer parametrelerinin değerlerini gerçekten önemsemiyorsanız , o zaman bunların üzerine çökmelisiniz. Ancak muhtemelen pratikte bu yöntemler çok farklı sonuçlar vermeyecektir - eğer yaparlarsa, çözümünüzde altta yatan bazı kararsızlıklara işaret edebilir, örneğin , benzer tahminler veren farklı β , inations kombinasyonlarına sahip çoklu modlar .θβθ


Maksimum / marjinal olabilirlik yöntemleri ve dolayısıyla soru için farklı sonuçlar buldum. Benim durumumdaki iki sonucun farklı yorumlar ancak olası sonuçlar verdiğini söyleyebilirim.
Ankit Chiplunkar

5

Şu anda bu soruyla kendimi boğuşuyorum. İşte size yardımcı olabilecek bir sonuç. Doğrusal modeli düşünün

y=Xβ+ϵ,ϵN(0,σ2)

yRn,βRp,βσ2

L(β,σ2)=(2πσ2)n/2exp(||yXβ||22σ2)

Ortak olasılık getirilerinin optimize edilmesi

β^=X+y

σ^2=1n||r||2

X+Xr=yXβ^σ^21/n1/(np)

βσ2βσ2

σ^2=maxσ2RpL(β,σ2)dβ

Temel lineer cebir ve Gauss integral formülünü kullanarak şunu gösterebilirsiniz:

σ^2=1np||r||2

Bu, onu ortak ML tahmini üzerinde tarafsız ve genel olarak tercih edilen özgürlük derecesi düzeltmesine sahiptir.

Bu sonuçtan, bütünleşik olasılık hakkında doğası gereği avantajlı bir şey olup olmadığını sorabiliriz, ancak bu soruyu cevaplayan herhangi bir genel sonuç bilmiyorum. Konsensüs, entegre ML'nin çoğu tahmin problemindeki belirsizliği hesaba katmada daha iyi olduğu görülmektedir. Özellikle, diğer parametre tahminlerine (dolaylı olarak bile) bağlı bir miktar tahmin ediyorsanız, diğer parametreler üzerinde entegrasyon belirsizlikleri daha iyi açıklar.


1
β

1
ββ

Aslında, bu gönderi ve yorumlara dayanarak, marjinal ML değil, entegre ML'nin burada yaptığımız şey için doğru terim olduğunu düşünüyorum. Buna göre düzenlendi.
Paul

1
+1 Bu partiye oldukça geç kaldığımı biliyorum, ancak tam olarak REML'nin yaptığı şeyden önce uygunsuz bir üniforma koyarak sabit etkileri entegre etmiyor, bu yüzden aslında REML tahminini elde ettiniz ve bu df düzeltmesi tam olarak burada REML küçük örnekler için daha iyi?
jld

@Chaconne evet, bu yazı REML'i anlamaya çalışarak motive oldu! (Neredeyse) hiçbir resmi istatistik eğitimim yok, bu yüzden bunu türetmek benim için yeni bir şeydi.
Paul

4

ββθθθθθip(θi)θdataβ

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.