Yoğunluk tahmininde bir Bayesian yaklaşımı var mı


22

Sürekli rastgele bir değişkeninin yoğunluğunu tahmin etmekle ilgileniyorum . Bunu öğrenmenin bir yolu Çekirdek Yoğunluğu Tahmini kullanımıdır.X

Ama şimdi, aşağıdaki satırlardaki Bayes yaklaşımıyla ilgileniyorum. Başlangıçta F dağılımını takip ettiğine inanıyorum . Attığım n okumalar X . Yeni okumalarıma dayanarak F güncelleme konusunda bazı yaklaşımlar var mı ?F n X FXFnXF

Kendimle çelişiyormuşum gibi geldiğimi biliyorum: Yalnızca F önceki dağıtımım olduğuna inanıyorsam , hiçbir veri beni aksi halde ikna etmemelidir. Bununla birlikte, varsayalım F edildi Unif[0,1] ve benim veri noktaları gibi edildi (0.3,0.5,0.9,1.7) . Görme 1.7 , Açıkçası benim önceki sopa olamaz, ama onu nasıl güncellemek gerekir?

Güncelleme: Yorumlardaki önerilere dayanarak Dirichlet sürecine bakmaya başladım. Aşağıdaki notasyonları kullanmama izin verin:

GDP(α,H)θi|GGxi|θiN(θi,σ2)

Asıl sorunumu bu dilde kurduktan sonra sanırım aşağıdakilerle ilgileniyorum: θn+1|x1,...,xn . İnsan bunu nasıl yapar?

Bu not setinde (sayfa 2), yazar θn+1|θ1,...,θn (Polya Urn Şeması). Bunun alakalı olup olmadığından emin değilim.

Güncelleme 2: Ayrıca (notları gördükten sonra) sormak istiyorum: insanlar DP için nasıl seçer ? Rastgele bir seçim gibi görünüyor. Ek olarak, insanlar DP için nasıl bir öncelikli seçer ? için önceliğim olarak sadece için bir öncelik mi kullanmalıyım?H θ Hα'Hθ'H


2
“Öncelikli dağıtımım olarak yalnızca F'ye inanıyorsam, hiçbir veri beni başka türlü ikna etmemelidir.” Bu, bir yandan, diğer yandan dünyaya inandığınızı ve diğer yandan birlikte hissetmenizi sağlayan ve onları bir araya toplayan ve ortaya çıkanları görenler arasında olan Bayesci çıkarımın antitezidir . Yıkayın, durulayın, tekrarlayın.
Alexis,

Dirichlet süreci hakkında bir şey biliyor musunuz?
niandra82

Son paragrafınızı dikkate almamak: Bu sorunun iki ortak seçeneği vardır. Bunlardan bir tanesi sonlu bir normals karışımıdır (çapraz doğrulama olasılığına dayanarak kaç norm seçebilirsiniz) veya @ niandra82'nin önerdiği gibi sonsuz bir normal karışımı. Bunlar Gibbs örneklemesi veya değişken çıkarım gibi bir şeyle yapılabilir. Bu yöntemlerden herhangi birini biliyor musunuz?

Ayrıca şunu sormalıyım, bu KDE'yi nasıl kullanmayı düşünüyorsunuz? Seçilen yöntem ve büyüklüğü (sonsuz, sonlu) amacınıza bağlı olabilir.

Bu bir model seçim problemi veya felsefi bir problem gibi görünüyor. Gerçekte, bizim Bayesian çıkarımında kullanma olasılığımız da önceki inançları dayatıyor ...
Zoë Clark

Yanıtlar:


2

Bir bayes yaklaşımı istediğinden, tahmin etmek istediğin şey hakkında önceden bilgi sahibi olman gerekir. Bu bir dağıtım şeklinde olacaktır.

Şimdi, bunun şimdi dağıtımlar üzerinde bir dağıtım olduğu sorunu var. Ancak, eğer aday dağıtımlarının bazı parametreli dağıtım sınıflarından geldiğini varsayarsanız, bu bir sorun değildir.

Örneğin, verinin bilinmeyen ortalama ancak bilinen varyans ile dağıtılmış Gauss olduğunu varsayarsanız, tek ihtiyacınız olan şey ortalamanın üzerinde bir önceliktir.

Bilinmeyen parametre MAP kestirimleri (çağıracağı θ tüm gözlemler / veri noktaları bilinmeyen parametre verilen şartlı bağımsız oldukları varsayarak devam olabilir). O zaman, MAP tahmini

,θ^=argmaxθ(Pr[x1,x2,...,xn,θ])

nerede

.Pr[x1,x2,...,xn,θ]=Pr[x1,x2,...,xn|θ]Pr[θ]=Pr[θ]i=1nPr[xi|θ]

Önceki olasılık ve aday dağılımlarının özel kombinasyonlarının olduğu belirtilmelidir.Pr[θ] Daha fazla veri noktaları kadar kolay (kapalı form) yol güncellemelerini vermek alınır.Pr[x|θ]


1

Yoğunluk tahmini için ihtiyacınız olan şey değil

.θn+1|x1,,xn

Notlardaki formül θn+1|θ1,,θn Dirichlet sürecinin öngörü dağılımına reffers.

Yoğunluk tahmini için aslında tahmin dağıtım gelen numunenin zorunda

π(dxn+1|x1,,xn)

Yukarıdaki dağılımdan örnekleme şartlı yöntemlerle ya da marjinal yöntemlerle yapılabilir. Koşullu yöntemler için, Stephen Walker'ın makalesine bir göz atın [1]. Marjinal yöntemler için Radford Neal gazetesinde [2] kontrol etmelisiniz.

Konsnetrasyon parametresi Mike West [3], MCMC prosedüründe α için tam koşullu dağılım içeren çıkarım için bir yöntem önermektedir . MCMC prosedüründe α konsantrasyonunu güncellememeye karar verirseniz, bunun için daha büyük bir değer seçerseniz, Dirichlet işleminden çizilen farklı değerlerin sayısının, belirli zamanlardaki farklı değerlerin sayısından daha büyük olacağını unutmayın. α için küçük bir sayıαααα kullanılacaktır.

[1] SG, Walker (2006). Dirichlet Mixture modelini dilimlerle örnekleme. Statikte İletişim (Simülasyon ve Hesaplama).

[2] RM, Neal (2000) Markov Chain Dirichlet Process Mixture modellerinde Monte Carlo yöntemleri. Hesaplamalı ve Grafiksel İstatistik Dergisi. Cilt 9, Sayı 2, sayfa 249-265

[3] M., West (1992). Dirichlet proses karışım modellerinde hiperparametre kestirimi. Teknik rapor


-1

Yeni okumalarıma dayanarak F güncelleme konusunda bazı yaklaşımlar var mı?

Bunun için kesin bir şey var. Bu hemen hemen Bayesian çıkarımının ana fikri.

p(θ|y)αp(y|θ)p(θ)

p(θ) senin önceliğin, ne dediğin F. p(y|θ)Bayeslilerin "olasılık" dediği şeydir ve verilerinizi bir miktar teta verilmiş olarak gözlemleme olasılığıdır. Onları bir araya getirip "posterior" dağılımı denilen şeyi alθ. Bu sizin "güncellenmiş F" dir. Bayesian İstatistikleri kitabına giriş bölümünde 1. bölüme bakınız.

Kurtulmak zorunda değilsin p(θ) (önceliğiniz), bunun artık en iyi tahmininiz olmadığını, şimdi de iyileştirmek için verilerinizin olduğunu fark etmeniz gerekiyor.


3
Bu, sorunun ne sorduğuna cevap vermiyor. OP bir kişinin nasıl öncelik kazanabileceğini soruyorF ne zaman X1,...,Xn~benbendF. Önceliğimizi varsayarakF olasılık bir dağılımlı yoğunluğa olasılığını koyar, olasılık L(F)=Πben=1N-dFdx|x=xben. Bu nedenle, dağıtım fonksiyonlarının alanı üzerine bir öncelik kurmamız gerekiyor.Ffarklılaştırılabilir olan (sonsuz boyutlu olan) ve OP bunun nasıl yapılacağını soruyor.
adam
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.