Watanabe'nin tartışmasını anlamak için, "tekillik" ile ne kastettiğini anlamak önemlidir. (Katı) tekillik, teorisindeki tekil metrik geometrik kavramıyla çakışır.
s.10 [Watanabe]: "Bir istatistiksel model , tanımlanabilir ve pozitif belirli bir metriğe sahipse düzenli olduğu söylenir. İstatistiksel bir model düzenli değilse, o zaman kesinlikle tekil olarak adlandırılır."p(x∣w)
Pratikte, tekillik genellikle, model tarafından tanımlanan model tarafından tanımlanan manifoldda dejenere edilmiş Fisher bilgi metriği, "makine öğrenimi" çalışmalarındaki düşük sıralı veya seyrek vakalar gibi durumlarda ortaya çıkar.
Watanabe'nin ampirik KL ıraksamasının teorik değerine yakınsaması hakkında söyledikleri şu şekilde anlaşılabilir. Iraksama kavramının bir kaynağı sağlam istatistiklerden gelir. MLE'yi kontrast işlevi olan özel bir durum olarak içeren M-tahmin edicileri genellikle zayıf topoloji kullanılarak tartışılır. MLE'nin sağlamlık davranışını incelemek istediğimiz için yakınsama davranışını (Polonya alanı üzerinde tanımlanan tüm olası önlemlerin manifoldu üzerinde zayıf topoloji kullanarak tartışmak mantıklıdır . [Huber] 'daki klasik bir teorem, iyi ayrılmış ayrılık fonksiyonu .ρ(θ,δ(X))=−logp(X∣θ)M(X)XD(θ0,θ)=Eθ0ρ(θ,δ)
inf|θ−θ0|≥ϵ(|D(θ0,θ)−D(θ0,θ0)|)>0
ve sapma kontrast fonksiyonunun iyi deneysel yaklaşım,
düzenli ile birlikte, bir anlamda tutarlılık elde edilebilir
olacak yakınsayacağı olasılığı . Doob'un Bayes kestiricisinin zayıf tutarlılığındaki sonucuyla [Doob] karşılaştırırsak, bu sonuç çok daha kesin koşullar gerektirir.
^ θ n :=argsupθ∣∣∣1n∑iρ(θ,δ(Xi))−D(θ0,θ)∣∣∣→0,n→∞
θ 0 P θ 0θn^:=argminθρ(θ,δ(Xn))
θ0Pθ0
İşte burada Bayesci tahminciler ve MLE ayrışıyor. Bayes kestiricilerinin tutarlılığını tartışmak için hala zayıf topoloji kullanırsak, bu anlamsızdır, çünkü Bayes kestiricileri her zaman (olasılıkla) Doob ile tutarlı olacaktır. Bu nedenle daha uygun bir topoloji, zayıf türevlere izin veren Schwarz dağılım topolojisidir ve von Mises teorisi devreye girmiştir. Barron, bu konuda tutarlılık elde etmek için Schwartz teoremini nasıl kullanabileceğimiz hakkında çok güzel bir teknik rapora sahipti.
Başka bir bakış açısıyla, Bayesci tahminciler dağılımlardır ve topolojileri farklı bir şey olmalıdır. Öyleyse nin bu tür topolojide ne tür bir rolü var ? Cevap, Bayes kestiricisinin güçlü bir şekilde tutarlı olmasını sağlayan öncüllerin KL desteğini tanımlamasıdır.D
"Tekil öğrenme sonucu" etkilenir, çünkü gördüğümüz gibi, Doob'un tutarlılık teoremi Bayesian tahmincilerinin zayıf topolojide zayıf tek tutarlılıkta (tekil modelde bile) olmasını sağlarken MLE aynı topolojideki belirli gereksinimleri karşılamalıdır.
Sadece bir kelime, [Watanabe] yeni başlayanlar için değil. Çoğu istatistikçiden daha fazla matematiksel olgunluk gerektiren gerçek analitik setler üzerinde bazı derin etkileri vardır, bu nedenle uygun rehberlik olmadan okumak muhtemelen iyi bir fikir değildir.
■ Referanslarımız
Watanabe, Sumio. Cebirsel geometri ve istatistiksel öğrenme teorisi. Vol. 25. Cambridge University Press, 2009.
[Huber] Huber, Peter J. "Maksimum olabilirlik davranışı standart olmayan koşullar altında tahmin ediliyor." Beşinci Berkeley sempozyumunun matematiksel istatistik ve olasılık bildirileri. Vol. 1. Hayır. 1. 1967.
[Doob] Doob, Joseph L. "Şehitler teorisinin uygulanması." Le calcul des probabilites ve ses uygulamaları (1949): 23-27.