«bayesian» etiketlenmiş sorular

Bayesci çıkarım, model parametrelerini rastgele değişkenler olarak ele almaya ve Bayes teoremini parametreler veya hipotezler hakkında gözlemlenen veri kümesine bağlı olarak subjektif olasılık ifadeleri çıkarmak için uygulamaya dayanan istatistiksel bir çıkarım yöntemidir.

2
MCMC ne zaman sıradan hale geldi?
MCMC'nin hangi yıl olağan hale geldiğini bilen var mı (yani Bayesci çıkarım için popüler bir yöntem)? Zaman içinde yayınlanan MCMC (dergi) makalelerinin sayısına bir bağlantı özellikle yararlı olacaktır.
19 bayesian  mcmc  history 

2
Posterior dağılımı zaten biliyorsak neden posterior dağılımdan numune almak gerekir?
Anladığım kadarıyla parametre değerlerini tahmin etmek için Bayesci bir yaklaşım kullanırken: Posterior dağılım önceki dağılım ve olasılık dağılımının kombinasyonudur. Bunu posterior dağılımdan bir örnek oluşturarak simüle ediyoruz (örneğin, değerleri oluşturmak için bir Metropolis-Hasting algoritması kullanarak ve posterior dağılıma ait olma olasılığının belirli bir eşiğinin üzerindeyse bunları kabul ediyoruz). Bu örneği …

3
Posterior olasılık> 1 olabilir mi?
Bayes formülünde: P(x|a)=P(a|x)P(x)P(a)P(x|a)=P(a|x)P(x)P(a)P(x|a) = \frac{P(a|x) P(x)}{P(a)} arka olasılık 1'i aşabilir mi?P(x|a)P(x|a)P(x|a) Örneğin, ve ve . Ama bundan emin değilim, çünkü bir olasılığın birden fazla olması ne anlama gelir?0&lt;P(a)&lt;10&lt;P(a)&lt;10 < P(a) < 1P(a)&lt;P(x)&lt;1P(a)&lt;P(x)&lt;1P(a) < P(x) < 1P(a)/P(x)&lt;P(a|x)&lt;1P(a)/P(x)&lt;P(a|x)&lt;1P(a)/P(x) < P(a|x) < 1

4
Mantık olasılığını ve olabilirliği kullanmak için teorik motivasyon
İstatistik ve olasılık teorisinde log-olasılık olasılığını (ve belki de daha genel olarak log-olasılığını) daha derin bir düzeyde anlamaya çalışıyorum. Log olasılıkları her yerde ortaya çıkıyor: genellikle analiz için log-olasılık ile çalışıyoruz (örneğin maksimizasyon için), Fisher bilgisi log-olasılığın ikinci türevi olarak tanımlanır, entropi beklenen bir log-olasılıktır , Kullback-Liebler ıraksaması log olasılıklarını …


5
Bayesci istatistikler meta analizi geçersiz kılıyor mu?
Sadece bir meta-analizi geçersiz kılarsa, Bayesian istatistiklerinin ilk çalışmadan sonuncuya kadar uygulanıp uygulanmayacağını merak ediyorum. Örneğin, farklı zaman noktalarında yapılmış 20 çalışmayı varsayalım. İlk çalışmanın tahmini veya dağılımı, daha önce bilgilendirici olmayan bir şekilde yapılmıştır . İkinci çalışma, posterior dağılımı önceki gibi kullanır. Yeni posterior dağılım şimdi üçüncü çalışma için …



3
Bayes istatistikleri istatistiksel süreç kontrolü için neden daha popüler değil?
Bayesci ve sık sık tartışma konusundaki anlayışım, sıklık istatistikleri: nesneldir (veya iddia edilir) veya en azından tarafsız farklı varsayımları kullanan farklı araştırmacılar yine de nicel olarak karşılaştırılabilir sonuçlar elde edebilirler bayes istatistikleri iken "daha iyi" tahminlerde bulunduğunu iddia ediyor (yani daha düşük beklenen kayıp), çünkü ön bilgileri kullanabilir (diğer nedenlerin …

4
Genellikle bilgisiz veya öznel öncelikler kullandığımızda yorumda bayes çerçevesi nasıl daha iyidir?
- bu veriler verilen bir parametre olasılığını hesaplar çünkü çoğu zaman, (frequentist üzerinden) Bayesian çerçeve yorumlanmasında büyük bir üstünlüğe sahip olduğunu ileri sürülmektedir yerine p ( x | İçeride ISTV melerin RWMAIWi'nin ) frequentist çerçevesindeki gibi . Çok uzak çok iyi.p(θ|x)p(θ|x)p(\theta|x)p(x|θ)p(x|θ)p(x|\theta) Ancak, temel aldığı tüm denklem: p(θ|x)=p(x|θ).p(θ)p(x)p(θ|x)=p(x|θ).p(θ)p(x)p(\theta|x) = {p(x|\theta) . …

1
Eşzamanlı L1 ve L2 regülasyonu (elastik ağ olarak da bilinir) ile doğrusal regresyonun Bayesian yorumu var mı?
Bir cezası olan lineer regresyonun , katsayılardan önce bir Gaussian verilen MAP tahminini bulmaya eşdeğer olduğu iyi bilinmektedir . Benzer şekilde, bir cezası kullanmak, daha önce olduğu gibi bir Laplace dağılımı kullanmaya eşdeğerdir.l2l2l^2l1l1l^1 ve normalleştirmesinin bazı ağırlıklı kombinasyonlarını kullanmak nadir değildir . Bunun katsayılar üzerindeki önceki dağılımlara eşdeğer olduğunu söyleyebilir …

1
Çok değişkenli normal posterior
Bu çok basit bir soru ama türetmeyi internette veya kitapta hiçbir yerde bulamıyorum. Bayesilerin çok değişkenli bir normal dağılımı nasıl güncellediğini görmek isterim. Örneğin: hayal edin P(x|μ,Σ)P(μ)==N(μ,Σ)N(μ0,Σ0).P(x|μ,Σ)=N(μ,Σ)P(μ)=N(μ0,Σ0). \begin{array}{rcl} \mathbb{P}({\bf x}|{\bf μ},{\bf Σ}) & = & N({\bf \mu}, {\bf \Sigma}) \\ \mathbb{P}({\bf \mu}) &= & N({\bf \mu_0}, {\bf \Sigma_0})\,. \end{array} {\ …

2
Birisi bana NUTS'u İngilizce olarak açıklayabilir mi?
Algoritmayı anlama şeklim şudur: Hiçbir U Dönüşü Örnekleyici (NUTS), Hamiltonian Monte Carlo Yöntemidir. Bu, bir Markov Zinciri yöntemi olmadığı anlamına gelir ve bu nedenle, bu algoritma, genellikle verimsiz ve yakınsama yavaş olarak kabul edilen rastgele yürüyüş parçasından kaçınır. Rastgele yürüyüş yapmak yerine, NUTS x uzunluğunda atlar yapar. Her atlama algoritma …

4
Bayesci yöntemler ne zaman Frequentist'e tercih edilir?
Gerçekten Bayesci teknikleri öğrenmek istiyorum, bu yüzden kendime biraz öğretmeye çalışıyorum. Ancak, Bayesian tekniklerini kullanırken Frequentist yöntemlere göre bir avantaj sağladığını görmekte zorlanıyorum. Örneğin: Literatürde bazılarının bilgilendirici öncelikleri nasıl kullandığını, bazılarının ise bilgilendirici olmayanları nasıl kullandığını gördüm. Ancak önceden bilgilendirici olmayan bir bilgi kullanıyorsanız (bu gerçekten yaygın görünüyor mu?) Ve …

1
Gelman'ın 8 okul örneğinde, bireysel tahminin standart hatası neden biliniyor?
Bağlam: Gelman'ın 8 okullu örneğinde (Bayesian Veri Analizi, 3. baskı, Ch 5.5) 8 okulda koçluğun etkisini test eden sekiz paralel deney vardır. Her deney, koçluğun etkinliği ve ilgili standart hata için bir tahmin verir. Daha sonra yazarlar koçluk etkisinin 8 veri noktası için aşağıdaki gibi hiyerarşik bir model oluştururlar: yi∼N(θi,sei)θi∼N(μ,τ)yi∼N(θi,sei)θi∼N(μ,τ) …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.