«variational-bayes» etiketlenmiş sorular

Varyasyonel Bayesci yöntemler, Bayesci çıkarımda ve makine öğrenmesinde bulunan inatçı integrallere yaklaşır. Öncelikle, bu yöntemler iki amaçtan birine hizmet eder: Arka dağılıma yaklaşmak veya gözlemlenen verilerin marjinal olasılığını sınırlamak.


1
MCMC'ye karşı varyasyonel çıkarım: ne zaman diğerini seçmelisin?
Ben, Metropolis Hastings vb Gibbs örneklemesi gibi MCMC çeşitli tatlar içeren VI ve MCMC hem genel fikir edinmek düşünüyorum Bu kağıt iki yöntemde harika serimlemesini sunuyor. Aşağıdaki sorularım var: Bayesian çıkarım yapmak istersem, neden diğerini seçeyim? Her yöntemin artıları ve eksileri nelerdir? Bunun oldukça geniş bir soru olduğunu anlıyorum, ancak …

1
Değişken Bayes ve EM arasındaki ilişki
Bir yerde Değişken Bayes yönteminin EM algoritmasının bir genellemesi olduğunu okudum. Aslında, algoritmaların yinelemeli kısımları çok benzer. EM algoritmasının Variational Bayes'ın özel bir sürümü olup olmadığını test etmek için aşağıdakileri denedim: YYY veri, gizli değişkenlerin toplanması ve parametrelerdir. Varyasyonel . Nerede ler daha basit, uysal dağılımları vardır.Θ P ( X …

2
varyasyon otomatik kodlayıcıda KLD kaybı ve yeniden yapılanma kayıplarının ağırlığı
Bir VAE'yi gördüğüm neredeyse tüm kod örneklerinde, kayıp işlevleri şu şekilde tanımlanır (bu tensorflow kodudur, ancak theano, torch vb. için de benzer şekilde gördüm. , sadece toplamların alındığı ekseni etkiler): # latent space loss. KL divergence between latent space distribution and unit gaussian, for each batch. # first half of …

1
Varyasyonlu oto kodlayıcılar nelerdir ve hangi öğrenme görevlerinde kullanılırlar?
Gereğince bu ve bu cevap, autoencoders boyut azaltılması için sinir ağları kullanan bir tekniktir görünmektedir. Ek olarak, değişken bir otomatik kodlayıcının ne olduğunu ("geleneksel" otomatik kodlayıcılara göre başlıca farklılıkları / faydaları) ve bu algoritmaların kullanıldığı ana öğrenme görevlerinin ne olduğunu bilmek isterim.

4
Otomatik kodlayıcının aksine varyasyonel bir oto kodlayıcıyı ne zaman kullanmalıyım?
Varyasyonel oto-kodlayıcının ve normal (deterministik) oto-kodlayıcının temel yapısını ve bunların arkasındaki matematiği anlıyorum, ama ne zaman ve neden bir tip otomatik kodlayıcıyı diğerine tercih ederim? Aklıma gelen tek şey, varyasyonel oto-kodlayıcının gizli değişkenlerinin önceki dağılımı, gizli değişkenleri örneklememize ve sonra yeni görüntüyü oluşturmamıza izin veriyor. Varyasyonel otoenkoderin stokastikliğinin deterministik otoenkodere …

1
Makine öğrenimi modelinin “kapasitesi” nedir?
Carl Doersch'in Variational Autoencoders üzerine olan bu eğitimini inceliyorum . İkinci sayfada şunları belirtir: Bu tür en popüler çerçevelerden biri, bu öğreticinin konusu olan Variational Autoencoder [1, 3]. Bu modelin varsayımları zayıftır ve backpropagation yoluyla eğitim hızlıdır. VAE'ler bir tahmin yapar, ancak yüksek kapasiteli modeller göz önüne alındığında bu yaklaşımın …


1
Varyasyonel Çıkarım, KL sapması gerçek gerektirir
Varyasyonel çıkarım (çok mütevazı) anlayışım için , aşağıdakileri optimize eden bir dağıtım bularak bilinmeyen bir dağıtım yaklaşmaya çalışır :pppqqq KL(p||q)=∑xp(x)logp(x)q(x)KL(p||q)=∑xp(x)logp(x)q(x)KL (p||q) = \sum\limits_{x} p(x)log \frac {p(x)}{q(x)} Ne zaman varyasyonsal çıkarımları anlamak için zaman harcadığım zaman bu formüle çarpmaya devam ediyorum ve yardım edemiyorum ama noktayı kaçırmış gibi hissediyorum. yı hesaplamak …


2
Birim Gaussian ile KL Kaybı
Bir VAE uyguluyorum ve basitleştirilmiş tek değişkenli gauss KL sapmasının çevrimiçi olarak iki farklı uygulamasını fark ettim. Uygun olarak, orijinal diverjans burada bir bir birim gaussian olduğunu varsayarsak, ve , bu İşte karışıklığım burada. Yukarıdaki uygulama ile birkaç belirsiz github depoları bulmuş olmama rağmen, daha yaygın olarak kullandığım şey:KLloss=log(σ2σ1)+σ21+(μ1−μ2)22σ22−12KLloss=log⁡(σ2σ1)+σ12+(μ1−μ2)22σ22−12 KL_{loss}=\log(\frac{\sigma_2}{\sigma_1})+\frac{\sigma_1^2+(\mu_1-\mu_2)^2}{2\sigma^2_2}-\frac{1}{2} …

1
Monte Carlo ile birleştirilmiş Varyasyon Bayes
Varyasyonel Bayes üzerinde okuyorum ve anladığım kadarıyla, (burada z , modelinizin gizli değişkenleri ve gözlemlenen veriler x ) bir işleve yaklaştığınız fikrine gelir. q (z) , q'nun q_i (z_i) olarak çarpanlara ayırdığı varsayılır; burada z_i , gizli değişkenlerin bir alt kümesidir. Daha sonra, optimal faktör q_i (z_i) şu şekilde gösterilebilir …

2
Örneklemeden yüksek boyutlu çıkarım problemlerinde belirsizlik tahmini?
Gradyan tabanlı optimizasyon ve genetik algoritmanın bir kombinasyonunu kullanarak log-posterior'un küresel maksimumunu bularak MAP tahminini sağlam bir şekilde gerçekleştirebileceğimiz yüksek boyutlu bir çıkarım problemi (yaklaşık 2000 model parametreleri) üzerinde çalışıyorum. MAP tahminini bulmanın yanı sıra, model parametreleri üzerindeki belirsizlikleri biraz tahmin edebilmek istiyorum. Log-posteriorun gradyanını parametrelere göre etkili bir şekilde …

2
Gaussian'ın Bayes Karışımına stokastik varyasyon çıkarımının uygulanması
Bunu izleyen stokastik varyasyon çıkarsama ile Gauss Karışım modeli uygulamak çalışıyorum kağıt . Bu Gauss Karışımının pgm'si. Makaleye göre, stokastik varyasyon çıkarımının tam algoritması: Ve hala GMM'ye ölçeklendirme yönteminden çok kafam karıştı. İlk olarak, yerel varyasyon parametresinin sadece ve diğerlerinin de tüm global parametreler olduğunu düşündüm . Eğer yanılmışsam lütfen …
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.