«expectation-maximization» etiketlenmiş sorular

Eksik verilerin varlığında maksimum olabilirlik tahmini için sıklıkla kullanılan bir optimizasyon algoritması.


3
Tekrarlanan gözlem sayısı ile örneklenen bir popülasyonun büyüklüğünü tahmin edin
Diyelim ki 50 milyon eşsiz şeyden oluşan bir popülasyonum var ve 10 milyon örnek alıyorum (değiştirerek) ... İlk grafik ekli olduğum, aynı "şeyi" kaç kez örneklediğimi gösteriyor. popülasyon örneklemden daha büyük. Ancak popülasyonum sadece 10 milyon şeyse ve 10 milyon örnek alırsam, ikinci grafikte aynı şeyi tekrar tekrar örnekleyeceğim. Benim …

4
İki popülasyonun örnekten ayrılması
İki grup veri tek bir veri kümesinden ayırmaya çalışıyorum. Popülasyonlardan birinin normal olarak dağıldığını ve numunenin en az yarısı kadar olduğunu varsayabilirim. İkincisinin değerleri, birincinin değerlerinden daha düşük veya daha yüksektir (dağılım bilinmemektedir). Ne yapmaya çalışıyorum normal dağıtılmış nüfusu diğerine kapsayacak üst ve alt sınırları bulmaktır. Benim varsayım bana başlangıç …

2
MLE her zaman verilerimizin altında yatan PDF'yi bildiğimiz anlamına mı gelir ve EM bilmediğimiz anlamına mı gelir?
MLE (Maksimum Olabilirlik Tahmini) ve varsa EM'ye (Beklenti Maksimizasyonu) hangi bağlantıya ilişkin açıklığa kavuşturmak istediğim bazı basit kavramsal sorularım var. Anladığım kadarıyla, birisi "MLE'yi kullandık" derse, bu otomatik olarak verilerinin PDF'sinin açık bir modeline sahip oldukları anlamına mı gelir? Bana öyle geliyor ki cevabı evet. Başka bir deyişle, herhangi bir …

2
Wilks teoremi ile sonlu bir karışımda gaussluların sayısını mı buluyorsunuz?
Bir dizi bağımsız, aynı şekilde dağıtılmış tek değişkenli gözlem ve nasıl oluşturulduğu hakkında iki hipotezim olduğunu varsayalım :xxxxxx H0H0H_0 : xxx , bilinmeyen ortalama ve varyansa sahip tek bir Gauss dağılımından çizilir. HAHAH_A : xxx ortalama, varyans ve karışım katsayısı bilinmeyen iki Gaussian karışımından alınmıştır. Doğru anladıysam, bu o modele …

2
Gizli bir markov modelinde ilk geçiş olasılıklarının önemi
Bir Gizli Markov Modelinde geçiş olasılıklarına belirli başlangıç ​​değerleri vermenin faydaları nelerdir? Sonunda sistem onları öğrenecek, o halde rastgele olanlar dışında değer vermenin anlamı nedir? Altta yatan algoritma Baum – Welch gibi bir fark yaratıyor mu? Başlangıçtaki geçiş olasılıklarını çok doğru bir şekilde bilirsem ve asıl amacım, gizli durumdan gözlemlere …



1
Bir matrisin pozitif tanımlaması nasıl yapılır?
Aşağıdaki faktör analizi modeli için bir EM algoritması uygulamak çalışıyorum; Wj= μ + B aj+ ejiçinj = 1 , … , nWj=μ+Baj+ejforj=1,…,nW_j = \mu+B a_j+e_j \quad\text{for}\quad j=1,\ldots,n burada p-boyutlu rastgele vektör, gizli değişkenlerin q-boyutlu bir vektörü ve parametrelerin bir pxq matrisidir.a j BWjWjW_jbirjaja_jBBB Model için kullanılan diğer varsayımların bir sonucu …

3
HMM bağlantısında MLE ve Baum Welch arasındaki fark
Gelen bu popüler soruya , yüksek upvoted cevap MLE ve Baum Welch HMM uydurma ayrı yapar. Eğitim problemi için aşağıdaki 3 algoritmayı kullanabiliriz: MLE (maksimum olabilirlik tahmini), Viterbi eğitimi (Viterbi kod çözme ile karıştırmayın), Baum Welch = ileri-geri algoritma ANCAK Wikipedia'da diyor Baum-Welch algoritması, parametrelerin maksimum olabilirlik tahminini bulmak için …

2
Beklenti Yardımı Kağıttan en üst düzeye çıkarma: önceden dağıtım nasıl dahil edilir?
Soru şu başlıklı makaleye dayanmaktadır: Çift yönlü ışınım iletimi-difüzyon modeli kullanılarak dağınık optik tomografide görüntü rekonstrüksiyonu İndirme: {link Yazarlar EM ile Algoritma uygulamak bilinmeyen bir vektör kıtlık regularization bir resmin pikselleri tahmin etmek. Model tarafından verilirl1l1l_1μμ\mu y=Aμ+e(1)(1)y=Aμ+ey=A\mu + e \tag{1} Tahmin Denk. (8) 'de μ^=argmaxlnp(y|μ)+γlnp(μ)(2)(2)μ^=arg⁡maxln⁡p(y|μ)+γln⁡p(μ)\hat{\mu} = \arg max {\ln p(y|\mu) …

1
MCMC / EM sınırlamaları? EM üzerinden MCMC?
Şu anda R'den JAGS kullanarak hiyerarşik Bayesian modelleri ve ayrıca Python ( "Hackerlar için Bayesian Yöntemleri" ) kullanarak pymc öğreniyorum . Bu yazıdan biraz sezgi alabilirim : "sanki", bir şekilde bilmek istediğiniz karmaşık dağıtımdan bağımsız örnekler almayı başarmış gibi görünen bir yığın sayı ile sonuçlanacaksınız. " Koşullu olasılığı verebileceğim gibi …

1
EM algoritması Gauss Karışımı modelindeki parametreleri sürekli olarak tahmin ediyor mu?
Gauss Karışımı modelini inceliyorum ve bu soruyu kendim buluyorum. Altta yatan verinin, KKK Gauss dağılımı ve her birinin ortalama bir vektörü vardır μk∈Rpμk∈Rp\mu_k\in\mathbb{R}^p, nerede 1≤k≤K1≤k≤K1\leq k\leq K ve her biri aynı eş varyans matrisine sahip ΣΣ\Sigma ve varsayalım ΣΣ\Sigmaçapraz bir matristir. Ve karıştırma oranının1/K1/K1/Kyani her küme aynı ağırlığa sahiptir. Bu …

1
İki değişkenli karışım dağılımıyla EM Algoritmasından yakınsama
Bir veri kümesinin maksimum olabilirlik tahmincisini bulmak istediğim bir karışım modelim var xxxve kısmen gözlenen bir veri kümesi . Beklenen verilen negatif log olasılığını en aza indirmek için E adımını ( verilen beklentisini ve mevcut parametreleri hesaplayarak ) ve M adımını uyguladım .zzzzzzxxxθkθk\theta^kzzz Anladığım kadarıyla, her yineleme için maksimum olasılık …

1
EM algoritması neden yinelemeli olmalıdır?
Her biri rastgele değişken olan birimine sahip bir popülasyonunuz olduğunu varsayalım . olan herhangi bir birim için değerlerini gözlemlersiniz . Bir tahmin istiyoruz .N-N-NXbenİsson Poisson ( λ )Xben~Poisson(λ)X_i \sim \text{Poisson}(\lambda)n = N-n0n=N--n0n = N-n_0Xben> 0Xben>0X_i > 0λλ\lambda Anların yöntemi ve cevabı almak için koşullu maksimum olasılık yolları var, ancak EM …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.