Gauss Karışımlarının kullanımını haklı çıkaran referanslar


14

Gauss karışım modelleri (GMM'ler) caziptir, çünkü hem analitik olarak hem de pratikte çalışmak kolaydır ve çok fazla karmaşıklık olmadan bazı egzotik dağılımları modelleyebilirler. Genel olarak net olmayan birkaç analitik özellik beklemeliyiz. Özellikle:

  • Say , bileşenli tüm Gauss karışımlarının sınıfıdır . Herhangi sürekli dağıtım için reals, biz olarak garanti edilmektedir büyür, biz yaklaşık edebilirsiniz göreceli entropi anlamda önemsiz kaybı olan bir GMM'de ile? Yani, deSnnPnP
    limninfP^SnD(P||P^)=0?
  • Diyelim ki sürekli bir P dağılımımız Pvar ve toplam varyasyonda P'ye yakın bir N bileşenli Gauss karışımı \ hat {P} bulduk : \ delta (P, \ hat {P}) <\ varepsilon . Biz bağlı Can D (P || \ şapka {P}) açısından \ epsilon ?P^Pδ(P,P^)<εD(P||P^)ϵ
  • XPX bağımsız katkı gürültüsü YPY (her ikisi de gerçek, sürekli) ile gözlemlemek istiyorsak ve GMM'ler X^QX,Y^QN nerede δ(P,Q)<ϵ , o zaman bu değer küçük:
    |mmse(X|X+Y)mmse(X^|X^+Y^)|,
    yani X gürültü Xile Y gürültüsünü tahmin etmenin X^ ile Y^ gürültüsünü tahmin etmek kadar zor olduğu doğru mudur?
  • Poisson gürültüsü gibi katkı maddesi olmayan gürültü modelleri için yapabilir misiniz?

Şimdiye kadar (kısa) literatür incelemesi çok uygulamalı dersler ortaya çıktı. Karışım modellerinin kullanımında hangi koşullar altında haklı olduğumuzu gösteren herhangi bir referans var mı?


3
GMM'ler kümesi zayıf topolojideki dağılımlar kümesinde yoğundur (dağılımda yakınsamaya karşılık gelir); örneğin buraya bakınız . Ben kesinlikle herhangi bir nokta kitleler ile başa çıkmak için karışımdaki izin sıfır varyans bileşenlerini gerektirecektir olsa ilk açıklamada, tutar emin değilim . Aynı zamanda ikinci mermi noktası konusunda da şüpheliyim, yine nokta kitleleri yüzünden. P
Dougal

1
İyi bir nokta, her şeyin sürekli olması gerektiğini belirttim
enthdegree

1
Gauss çekirdeği ile çekirdek yoğunluğu tahmini hakkındaki literatüre bakarken daha iyi şansınız olabilir. Numune sayısı arttıkça Gauss'luların bir karışımıyla karışımınız olduğu için, dağılımın asimptotik olarak tarafsız ve tutarlı bir tahmincisi var mı? Bence cevap evet, ama hemen bir referans bulamadım.
Greg Ver Steeg

2
@enthdegree: Çok güzel bir soru. Güçlü topolojiler (KL sapması ve toplam varyasyon) kullanmak istediğiniz için, ilk iki noktanızın genel cevabı hayırdır: örneğin, yağlı kuyruklu bir dağılımı düşünün; Herhangi bir sonlu gauss karışımının KL'si sonsuzdur (% 100 olmasa da bunun işe yaradığından eminim). Ancak bu, tüm mermi noktalarınız hangi olasılık dağılımlarının hangi alt sınıfına uygulanacak? Cevabı bilmiyorum ama son derece ilginç görünüyor. Tahminimce neredeyse tüm olasılık dağılımları.
Guillaume Dehaene

1
Bu kitapla bir ders aldım. link Temel bilgiler konusunda iyi bir altyapı oluşturur.
EngrStudent - Monica'yı

Yanıtlar:


0

Bağlamın logit modellerindeki katsayıların karışım dağılımları olduğu ekonometride standart referans şöyledir: BETON MÜDAHALE DANIEL MCFADDEN VE KENNETH TRENİ, UYGULAMALI EKONOMETRİ DERGİSİ, J. Appl. Ekon. 15: 447-470 (2000) 'de tarif edilmektedir.


0

Sorularınız için:

  1. Dirichlet Process'in gaussian karışımına çok benzer Bayes sorunu için, cevabın evet olduğunu anlıyorum. Ghosal (2013) .
  2. Bu konuyla ilgili bazı görüşmelere katıldığımda, çoğunlukla KL sapması kullanılarak ilerleme kaydedilmiş gibi görünüyordu. Bkz Harry van Zanten en slaytlar .
  3. Anlamadım. Ancak, bu bir kaynak ayırma sorununa benziyor ( bilinmeyen). Bunlar genellikle tek başına karışım modellemesinden çok daha zordur. Özellikle basit durumunda, dağılımların sıfıra yakın simetrisi nedeniyle gerçek ve tanımlayamazsınız .P , N = P S = N ( 0 , 1 ) X, Y,PN,PSPN=PS=N(0,1)XY
  4. Yukarıda bağlantılı slaytların dördüncüsüne bakın, yakınsama garantilerinin tutulduğu Bayesian modellerin bir listesi var.

0

İşte kısmi bir cevap.

Say , bileşenli tüm Gauss karışımlarının sınıfıdır . Herhangi sürekli dağıtım için reals, biz olarak garanti edilmektedir büyür, biz yaklaşık edebilirsiniz göreceli entropi anlamda önemsiz kaybı olan bir GMM'de ile? Yani, de , n p , n P lim N ∞ iken inf PS , n D ( P | | P ) = 0 ?SnnPnP

limninfP^SnD(P||P^)=0?

Hayır bir KL sapma tek umudumuz Eğer biliyorsanız küçük 'ın kuyrukları sonunda aynı düzenin olan s'. Bu genel olarak doğru değil. Cauchy için de herhangi bir , görmek zor değilQ, N inf pS , n D ( P | | P ) = D(PQ)QPPPn

infP^SnD(P||P^)=

Bunu söylemek için üzerinde daha fazla koşul gereklidir.P

Diyelim ki sürekli bir dağılımımız var ve toplam varyasyonda yakın bir bileşenli Gauss karışımı bulduk : . Biz bağlı Can açısından ?PNP^Pδ(P,P^)<εD(P||P^)ϵ

Hayır. Yukarıdaki aynı örnek geçerlidir.

bağımsız katkı maddesi gürültüsü (her ikisi de gerçek, sürekli) ile gözlemlemek istiyorsak ve GMM'ler nerede , o zaman bu değer küçük: yani gürültü ile gürültüsünü tahmin etmenin ile gürültüsünü tahmin etmek kadar zor olduğu doğru mudur? Y P YXPXYPYX^QX,Y^QYδ(P,Q)<ϵ

|mmse(X|X+Y)mmse(X^|X^+Y^)|,
XYX^Y^

Bilmiyorum. Eğer sonlu ortalama ve varyans sonra MMSEs olan var ve (basit türetme burada ). Bu varsayımlarla, nesnezaman küçük küçüktür. İlişkili. E [ X | Y ] D [ X | Y ]X,Y,X^,Y^E[X|Y]E[X^|Y^]T V ( P , Q )|EP[(EP[X|Y]X)2]EQ[(EQ[X|Y]X)2]|TV(P,Q)

Genel olarak ya da P, Q üzerinde üstlendiğimiz ekstra katkı yapısını kullanarak ya da herhangi bir karşı örnekle bunu kanıtlayamadım.

Poisson gürültüsü gibi katkı maddesi olmayan gürültü modelleri için yapabilir misiniz?

Bu belirsiz. Önceki soru bağlamında, eğer bu cevaptaki ifade genel olarak kanıtlanabilirse, cevap evettir.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.