Maksimum olasılık ne zaman çalışır ve ne zaman işe yaramaz?


16

Örneğin aritmetik ortalamanın hesaplanmasına kıyasla maksimum olabilirlik yöntemi hakkında kafam karıştı.

Maksimum olasılık ne zaman ve neden örneğin aritmetik ortalamadan "daha iyi" tahminler üretir? Bu nasıl doğrulanabilir?


4
+1 Bu herhangi bir istatistiksel prosedürü sormak için iyi bir soru.
whuber

3
Bu sorunun çok belirsiz olduğunu düşünmüyorum. Kesinlikle OP belirsizdir, ama bu yüzden soruyorlar. MLE'nin doğası ve aritmetik araçlarla ilgili konular iyi bir cevapla giderilmelidir.
gung - Monica'yı eski durumuna döndürün

3
"Daha iyi" ile ne demek istiyorsun? Ve aritmetik neden keyfi bir parametrenin iyi bir tahmincisi olsun?
Xi'an

4
Soru, daha önce "daha iyi", yani bir kayıp fonksiyonunun veya tahmin edicilerin karşılaştırılmasına izin veren başka bir kriter tanımlanmadan cevaplanamaz. Örneğin, MLE etkilidir, yani daha küçük asimptotik varyansa sahip bir tahminci yoktur (bazı düzenlilik koşulları altında). Örneğin MLE , Stein etkisi ile gösterildiği gibi kabul edilemez , yani, numunenin dağılımı ve parametrenin boyutu ile ilgili bazı kısıtlamalar altında parametrenin tüm değerleri için daha küçük karesel risk taşıyan tahminciler vardır.
Xi'an

2
@ Xi'an Bu bir cevabın temeli gibi geliyor.
whuber

Yanıtlar:


10

Aritmetik ortalama "doğal" tahmin edici olarak görünse de, neden MLE'ye tercih edilmesi gerektiğini sorabiliriz! Aritmetik ortalama ile ilişkili tek kesin özellik, E [ X ] ' un tarafsız bir tahmincisi olmasıdır.x¯E[X] , bu beklenti tanımlandığında . (Cauchy dağılımını bir karşı örnek olarak düşünün.) Daha sonra, olasılık fonksiyonu üzerinde düzenlilik koşulları altında çok çeşitli özelliklere sahiptir. Vikipedi sayfasından ödünç almak için MLE

  1. tutarlı
  2. asimptotik olarak normal
  3. minimum asimtotik varyansı elde etmesi açısından verimli
  4. iki dönüşümlü değişimler altında değişmez
  5. kısıtlı parametre setleri için bile parametre seti içinde

Aritmetik ortalama ile karşılaştırıldığında, bu özelliklerin çoğu da düzenli düzenli dağılımlar için tatmin edilir. Üstel aileler söz konusu olduğunda, MLE ve aritmetik ortalama, parametreyi ortalama parametrelendirmede tahmin etmek için özdeştir (ancak diğer parametrelendirmeler için değil). Ve MLE, Cauchy dağılımından bir örnek için var olur.

Bununla birlikte, minimumluk veya kabul edilebilirlik gibi sınırlı örnek optimallik özelliklerine dönülürken, MLE'nin minimum veya kabul edilebilir olmadığı görülebilir. Örneğin , Stein etkisi , numunenin dağılımı ve parametrenin boyutu ile ilgili bazı kısıtlamalar altında parametrenin tüm değerleri için daha küçük karesel risk taşıyan tahminciler olduğunu gösterir. Bu durum vep3.xNp(θ,Ip)p3


Sadece mle hakkında açıklığa kavuşturmak için - listelenen 5 mülkün tümü popülasyon için varsayılan bir model bağlamındadır.
olasılık

@CagdasOzgenc: evet tahakküm asimptotik olarak ihmal edilebilir, ancak tüm için tutar ..! Bununla birlikte, James-Stein minimax tahmin edicilerinin aralığı n ile küçülür, çünkü büzülme sabiti 0 ile 2 ( p - 2 ) σ 2 / n arasındadır, burada p bir gözlem bileşeninin boyutu ve σ 2 varyansıdır. Asimtotik minimasiteyi hiç duymadım. nsn02(p2)σ2/npσ2
Xi'an

2

"Aritmetik ortalamanın hesaplanması" ifadesini Momentler Yöntemi'ni (MoM) kullanarak tahmin olarak yorumlayalım. Yöntem, teorik soruların örnek ortalamalarını değiştirdiği için asıl soruya sadık olduğuna inanıyorum. Ayrıca @ Xi'an'ın keyfi bir parametre (keyfi bir modelden) hakkındaki kaygısını da ele alıyor.

Hala benimle iseniz, o zaman gitmek için harika bir yer olduğunu düşünüyorum anlar yöntemi küçük örneklerde maksimum olasılığı yenebilir nerede? Soru metni, "Maksimum olabilirlik tahmin edicilerinin (MLE) asemptotik olarak etkili olduğunu; genellikle moment yönteminin (MoM) tahminlerinden (farklı olduklarında) daha iyi yaptıkları için pratik sonuçları görüyoruz ve MoM tahmincilerinin MLE karşılıklarından daha küçük bir ortalama kare hatası elde etmek. Sağlanan birkaç örnek doğrusal regresyon, iki parametreli Ters Gauss dağılımı ve asimetrik üstel güç dağılımı bağlamındadır.

Bu "asimptotik verimlilik" fikri, maksimum olabilirlik tahmin edicilerinin, verileri genel olarak anlar yöntemiyle elde edemeyeceğiniz bir garanti olan en yüksek potansiyele (söz konusu parametreyi tahmin etmek için) kullanmaya yakın olduğu anlamına gelir. Maksimum olasılık her zaman ortalamalarla çalışmaktan "daha iyi" olmamakla birlikte, bu verimlilik özelliği (yalnızca sınırda ise) çoğu sık kullanılan için bir yöntemdir. Tabii ki, karşı taraf, artan veri seti boyutu ile, ortalamaları bir işlevle doğru hedefe işaret ediyorsanız, onunla devam ettiğini iddia edebilir.


1

Maksimum olasılığın (ML) en iyi çözümü sağlamadığı birçok ünlü örnek vardır. Lucien Le Cam'ın 1990 tarihli makalesine bakın: "Maksimum Olabilirlik: bir giriş" [1] , Univ. Maryland.

En çok sevdiğim örnek, çünkü çok basit, şu:

XjYjj=1,...,nXjN(μj,σ2)YjN(μj,σ2)jXjYjjσ2

Sana cevabı vererek eğlenceyi mahvetmeyeceğim, ama (sürpriz yok) ML kullanarak bunu çözmenin iki yolu var ve farklı çözümler veriyorlar. Biri, kare artıkların "aritmetik ortalaması" dır (birinin beklediği gibi), diğeri de aritmetik ortalamanın yarısıdır. Cevabı burada Github sayfamda bulabilirsiniz.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.