«prior» etiketlenmiş sorular

Bayesçi istatistiklerde, önceki bir dağılım, bir örnek görülmeden önce mevcut olan bilgi ya da bilgiyi (genellikle öznel) bir olasılık dağılımı şeklinde biçimlendirir. Parametre (ler) hakkında çok az şey biliniyorsa, büyük yayılı bir dağılım kullanılırken, daha dar bir önceki dağıtım daha büyük bir bilgi derecesini temsil eder.

2
Laplace neden daha seyrek çözümler üretiyor?
Düzenlemeyle ilgili literatürü inceliyordum ve çoğunlukla L2 düzenlemesini Gaussian'la bağlayan, L1'i de sıfır merkezli olan L1'i bağlayan paragrafları görüyordum. Bu önceliklerin nasıl göründüğünü biliyorum, ama örneğin doğrusal modeldeki ağırlıklar ile nasıl ilişkili olduğunu anlamıyorum. L1'de, doğru anlarsam, seyrek çözümler bekleriz, yani bazı ağırlıklar tam olarak sıfıra itilir. Ve L2'de küçük …

3
Hatalı bir önceki, uygun bir posterior dağılıma nasıl yol açar?
Önceden uygun bir dağıtım durumunda, P(θ∣X)=P(X∣θ)P(θ)P(X)P(θ∣X)=P(X∣θ)P(θ)P(X)P(\theta \mid X) = \dfrac{P(X \mid \theta)P(\theta)}{P(X)} ∝P(X∣θ)P(θ)∝P(X∣θ)P(θ) \propto P(X \mid \theta)P(\theta) . Bu adım için olağan gerekçelendirme, , in marjinal dağılımının açısından sabittir ve böylece posterior dağılımı elde ederken göz ardı edilebilir olmasıdır.XXXP(X)P(X)P(X)θθ\theta Ancak, uygunsuz bir öncelik durumunda, posterior dağılımın gerçekten var olduğunu nereden …

6
Poster önceliğe ve olasılığa göre çok farklı
Eğer önceki ve olasılık birbirinden çok farklıysa, bazen arkadakilerin hiçbirine benzemediği bir durum ortaya çıkar. Örneğin, normal dağılımları kullanan bu resme bakın. Her ne kadar bu matematiksel olarak doğru olsa da, sezgilerime uygun gözükmüyor - veriler güçlü tutulan inançlarımla veya verilerle uyuşmuyorsa, hiçbir menzilin iyi geçmesini beklememeyi ya da düz …

4
Ölçek parametreleri için zayıf bilgilendirici önceki dağılımlar
Ölçeğin ne olması gerektiği hakkında kaba bir fikrim olduğunda, ölçek parametreleri için normal dağılımları log (normal dağılımlar, t dağılımları vb.) Olarak kullanıyorum, Bu konuda çok fazla. Bunu kullanıyorum çünkü bu kullanım benim için sezgisel bir anlam ifade ediyor, ancak başkalarının kullandığını görmedim. Bunun gizli bir tehlikesi var mı?

2
LDA hiperparametreleri için doğal yorumlama
Birisi LDA hiperparametrelerinin doğal yorumunun ne olduğunu açıklayabilir mi? ALPHAve BETAsırasıyla (belge başına) konu ve (konu başına) kelime dağılımları için Dirichlet dağılımlarının parametreleridir. Bununla birlikte, birisi bu hiperparametrelerin daha küçük değerlere göre daha büyük değerlerini seçmenin ne anlama geldiğini açıklayabilir mi? Bu, belgelerdeki konuların azlığı ve kelimelerin konuların karşılıklı olarak …

2
Neden olduğu
Arka fon Varyanstan önce en sık kullanılan zayıf yönlerden biri parametreleri olan ters gamadır (Gelman 2006) .α = 0.001 , β= 0.001α=0.001,β=0.001\alpha =0.001, \beta=0.001 Bununla birlikte, bu dağılım yaklaşık% 90 CI'ye sahiptir .[ 3 × 1019, ∞ ][3x1019,∞][3\times10^{19},\infty] library(pscl) sapply(c(0.05, 0.95), function(x) qigamma(x, 0.001, 0.001)) [1] 3.362941e+19 Inf Bu, ben …



4
Genellikle bilgisiz veya öznel öncelikler kullandığımızda yorumda bayes çerçevesi nasıl daha iyidir?
- bu veriler verilen bir parametre olasılığını hesaplar çünkü çoğu zaman, (frequentist üzerinden) Bayesian çerçeve yorumlanmasında büyük bir üstünlüğe sahip olduğunu ileri sürülmektedir yerine p ( x | İçeride ISTV melerin RWMAIWi'nin ) frequentist çerçevesindeki gibi . Çok uzak çok iyi.p(θ|x)p(θ|x)p(\theta|x)p(x|θ)p(x|θ)p(x|\theta) Ancak, temel aldığı tüm denklem: p(θ|x)=p(x|θ).p(θ)p(x)p(θ|x)=p(x|θ).p(θ)p(x)p(\theta|x) = {p(x|\theta) . …

1
Eşzamanlı L1 ve L2 regülasyonu (elastik ağ olarak da bilinir) ile doğrusal regresyonun Bayesian yorumu var mı?
Bir cezası olan lineer regresyonun , katsayılardan önce bir Gaussian verilen MAP tahminini bulmaya eşdeğer olduğu iyi bilinmektedir . Benzer şekilde, bir cezası kullanmak, daha önce olduğu gibi bir Laplace dağılımı kullanmaya eşdeğerdir.l2l2l^2l1l1l^1 ve normalleştirmesinin bazı ağırlıklı kombinasyonlarını kullanmak nadir değildir . Bunun katsayılar üzerindeki önceki dağılımlara eşdeğer olduğunu söyleyebilir …

2
Jeffreys Priors ve varyans dengeleyici dönüşümün ardındaki ilişki nedir?
Daha önce wikipedia'da Jeffreys hakkında okuyordum: Jeffreys Prior ve her örnekten sonra, varyans stabilize edici bir dönüşümün Jeffreys'i daha önce tek tip bir forma dönüştürdüğünü açıkladığını gördüm. Bir örnek olarak, Bernoulli durum için, bu durumları olasılığı olan kafaları olan bir madeni para için γ∈[0,1]γ∈[0,1]\gamma \in [0,1] , Bernoulli test modeli …


2
Sıklık ve öncelikler
Robby McKilliam bu yazının yorumunda şöyle diyor : Sıkça görülenler açısından, önceki bilgiyi modele dahil edememeniz için hiçbir neden olmadığı belirtilmelidir. Bu anlamda, sık görüş daha basittir, sadece bir modeliniz ve bazı verileriniz vardır. Önceki bilgileri modelden ayırmaya gerek yoktur Ayrıca, burada , @jbowman, sıkıcıların maliyet / ceza işleviyle düzenlemeyi …

1
Bilgisiz beta öncelikleri arasında seçim yapma
Bir binom işlemi (Hit / Miss) ile çalışmak için beta dağıtımı için bilgilendirici olmayan öncelikler arıyorum. İlk başta tek bir PDF oluşturan veya Jeffrey'den önce kullanmayı düşündüm . Ama aslında posterior sonuçlar üzerinde minimum etkiye sahip olan öncelikleri arıyorum ve sonra önce uygunsuz bir şekilde kullanmayı düşündüm . Buradaki sorun, …

3
Bayesçi parametre kestiriminde önceden nasıl seçilir
Parametre tahmini yapmak için 3 yöntem biliyorum, ML, MAP ve Bayes yaklaşımı. MAP ve Bayes yaklaşımı için parametreler için öncelikler seçmeliyiz, değil mi? Diyelim ki MAP veya Bayes kullanarak tahmin yapmak için parametreler olan bu modelim var , kitapta bir konjugat seçmemiz gerektiğini okudum önce a,, ortak olasılığı , tamam …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.