Ben geldim bu slaytlar çevrimiçi derslerin birinde (slayt # 16 & # 17). Eğitmen Maksimum Posterior Tahmini (MAP) çözüm aslında nasıl anlatmaya çalışıyordu , nerede gerçek bir parametredir.
Birisi bunun nasıl olduğunu açıklayabilir mi?
Ben geldim bu slaytlar çevrimiçi derslerin birinde (slayt # 16 & # 17). Eğitmen Maksimum Posterior Tahmini (MAP) çözüm aslında nasıl anlatmaya çalışıyordu , nerede gerçek bir parametredir.
Birisi bunun nasıl olduğunu açıklayabilir mi?
Yanıtlar:
Paylaştığınız slaytlardan geçerek, bana göre fikir, MAP tahmininin posteriorun ortalama, mod ve medyan gibi farklı özelliklerini tahmin etmek için nasıl kullanılabileceğini açıklamaktır. Bunu, Stephen M. Kay'ın İstatistiksel Sinyal İşlemenin Temelleri kitabında sunulduğu gibi Genel Bayesci Tahminciler bağlamında açıklamaya çalışacağım .
parametresini tahmin etmekle ilişkili üç Risk türü (yani maliyet fonksiyonları) göz önüne alarak başlayalım :
- ; başka
burada, , burada θ tahmini değerdir ve θ gerçek bir parametredir. Bayes kestiriminde amaç beklenen riski en aza indirmektir:
sadece ilgilendiğimiz için, iç integraline odaklanacağız .
Şimdi, hangi seçtiğimize bağlı olarak , tahminci bize posteriorun farklı bir özelliğini verecektir. İlk durumda tercih Örneğin, , minimize için , ortalamasıdır. Size bu yana ediyoruz soru gösterge işlevi açısından ise , Yukarıda belirtilen üçüncü riski ele alacağım (eğer için düşünürseniz göstergeyi kullanmaya eşittir).
Yukarıdaki Durum 3 için:
olan asgariye düşürülmesidir θ posterior moduna tekabül eder.
Örneğin, Evans ve Jang 2011 yılında MAP, en az göreceli sürpriz (veya maksimum profil olasılığı) tahmin edicileri ve kayıp fonksiyonları arasındaki bağlantıyı tartıştıkları bir arXiv belgesi yayınladılar . Meselenin özü, ne MAP tahmincilerinin ne de MLE'lerin en azından sürekli bir parametre alanında karar teorik bir yaklaşımla gerçekten haklı gösterilmemesidir. Ve parametre alanı üzerinde seçilen [keyfi olarak] baskın önlemin Druihlet ve Marin tarafından 2007'de gösterildiği gibi MAP değerini etkilediği. Sonlu durumda burada transform (θ) dönüşümünün tahminini d ile tahmin ederler, bu dönüşümden önce marjinal tarafından ters ağırlıklı. Kimlik dönüşümünün özel durumunda, bu kayıp fonksiyonu Bayes tahmincisi olarak MLE'ye yol açar. Genel durumda, Bayes tahmincisi maksimum profil olabilirlik tahmincisidir (LRSE). Bununla birlikte, bu kayıp fonksiyonu, sayıca sonsuz (ve açık bir şekilde sürekli) parametre uzayları için genelleme yapmaz ve bu tür ayarlarda yazarlar sadece Bayes prosedürlerinin limiti olarak LRSE'ler sağlayabilirler. Sayılabilecek davada kabul edilen kayıp fonksiyonu örneğin L ( θ , d ) = I { Ψ (
Robert Bassett ve Julio Deride 2016 yılında MAP'lerin Bayesçi karar teorisindeki konumunu tartışan bir makale hazırladılar .
“… 0-1 kaybına sahip Bayes tahmincilerinin bir limiti olarak MAP tahmincilerinin yaygın kabul gören fikrine karşı bir örnek sunuyoruz.”
Yazarlar bu özelliği başka önlemler almadan Bayes Choice kitabımdan bahsediyor ve bu konuda dikkatsiz olmayı tamamen kabul ediyorum! Zorluk, sınırlayıcıların sınırının sınırlandırıcı olması gerekmemesi ile sınırlıdır. Makale, parametreye bağlı olmayan bir örnekleme dağılımı ile ilişkili olarak yukarıda belirtildiği gibi bu etkiye bir örnek içermektedir. Burada önerilen yeterli koşullar, posterior yoğunluğun neredeyse kesin olarak uygun veya yarı konkav olmasıdır.
Bu sorun hakkında bahsedilen metnin özetini Bölüm 5, Bayes İstatistikleri, Makine Öğrenimi: Olasılıkçı bir bakış açısı - Murphy tarafından vereceğim .
Ortalama veya medyandan farklı olarak, bu tahmin edilirken diğer tüm noktaları dikkate almadığı için 'alışılmadık' bir noktadır. Ortalama / ortanca tahmini durumunda, diğer tüm hususları dikkate alırız.
Bu nedenle, beklendiği gibi, çok eğik posterior dağılımlarda, MAP (ve uzantı olarak MLE) gerçekte posterioru tam olarak temsil etmez.
Peki, Ortalama / Medyan / Mod gibi bir nokta tahmini kullanarak bir posterioru nasıl özetleyebiliriz?