«prior» etiketlenmiş sorular

Bayesçi istatistiklerde, önceki bir dağılım, bir örnek görülmeden önce mevcut olan bilgi ya da bilgiyi (genellikle öznel) bir olasılık dağılımı şeklinde biçimlendirir. Parametre (ler) hakkında çok az şey biliniyorsa, büyük yayılı bir dağılım kullanılırken, daha dar bir önceki dağıtım daha büyük bir bilgi derecesini temsil eder.


2
Ortalama varyans ilgi konusu olduğunda, hiyerarşik bir bayesisan modelinde varyans için hangi önceki dağılımlar kullanılabilir / kullanılmalıdır?
Yaygın olarak alıntılanmış makalesinde Hiyerarşik modellerde varyans parametreleri için önceki dağılımlar (Google Akademik'te şu ana kadar 916 alıntı) Gelman, hiyerarşik bir Bayes modelindeki varyans için iyi bilgilendirici olmayan önceki dağılımların düzgün dağılım ve yarım t dağılım olduğunu önermektedir. Bir şeyleri doğru anlarsam, bu konum parametresi (örneğin ortalama) ana ilgi alanı …

1
Sıfır hipotezi altında değiştirilebilir örneklerin ardındaki sezgi nedir?
Permütasyon testleri (randomizasyon testi, yeniden randomizasyon testi veya kesin test olarak da adlandırılır) çok faydalıdır ve örneğin normal dağıtım varsayımı t-testkarşılanmadığında ve değerlerin parametrik olmayan test Mann-Whitney-U-test, daha fazla bilginin kaybolmasına neden olur. Bununla birlikte, bu tür bir test kullanılırken bir ve sadece bir varsayım göz ardı edilmemelidir, örneklerin sıfır …
16 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
Ridge regresyon - Bayes yorumu
Önceden yeterince seçilmişse sırt regresyonunun posterior dağılımın ortalaması olarak türetilebileceğini duydum. Öncekine göre regresyon katsayıları üzerinde belirlenen kısıtlamaların (örneğin, 0 civarında standart normal dağılımlar) sezgisi aynı mı / katsayıların kare büyüklüğünde ayarlanan cezayı değiştiriyor mu? Bu denkliğin elde edilebilmesi için öncekinin Gauss olması gerekir mi?

3
Neden kimse Bayes multinomial Naive Bayes sınıflandırıcısını kullanmıyor?
Yani (denetimsiz) metin modellemesinde, Latent Dirichlet Ataması (LDA) Olasılıksal Gizli Semantik Analiz'in (PLSA) Bayesli bir versiyonudur. Esasen, LDA = PLSA + Dirichlet parametrelerine göre önceden. Anladığım kadarıyla LDA artık referans algoritması ve çeşitli paketlerde uygulanmakta, PLSA artık kullanılmamalıdır. Ancak (denetlenen) metin kategorizasyonunda, çok şeyi aynı Naif Bayes sınıflandırıcısı için aynı …

2
Düz, eşlenik ve hiper öncelikler. Onlar neler?
Şu anda Yang'ın Hesaplama Moleküler Evriminde Bayes Yöntemlerini okuyorum. Bölüm 5.2'de öncelikler ve özellikle bilgilendirici olmayan / düz / belirsiz / yaygın, eşlenik ve hiper öncelikler hakkında konuşulur. Bu aşırı basitleştirme isteyebilir, ancak birisi basitçe bu tür öncelikler arasındaki farkı ve bunun Bayes analizi sürecinde alacağım analiz / kararların sonucunu …
15 bayesian  prior 

2
Stan'da tanımlanmış öncelikleri olmayan parametreler
Stan ve kullanmayı öğrenmeye başladım rstan. JAGS / BUGS'un nasıl çalıştığı konusunda her zaman kafam karışmadıkça, çizilecek modeldeki her parametre için her zaman bir tür önceden dağıtım tanımlamanız gerektiğini düşündüm. Yine de Stan belgelerine dayanarak bunu yapmak zorunda değilsiniz gibi görünüyor. İşte burada verdikleri örnek bir model . data { …

2
Dağıtımdaki serbestlik dereceleri için iyi bir ön dağıtım nedir?
Bayes modelinde kısa aralıklı varlık getirilerini modellemek için dağıtımda kullanmak istiyorum. Dağıtım için her iki serbestlik derecesini (modelimdeki diğer parametrelerle birlikte) tahmin etmek istiyorum. Varlık getirilerinin oldukça normal olmadığını biliyorum, ama bunun ötesinde çok fazla şey bilmiyorum. Böyle bir modeldeki serbestlik dereceleri için uygun, hafif bilgilendirici bir ön dağıtım nedir?


2
Sık bir sonuçtan önce Bayesyan yapmak
Önceden bir frekansçı sonucu Bayesya'ya çevirmek nasıl olur? Aşağıdaki oldukça jenerik senaryoyu düşünün: Bir deney geçmişte yapılmıştır ve bazı parametre üzerinde bir sonuç ölçüldü. Analiz sık kullanılan bir metodoloji ile yapılmıştır. Sonuçlarda ϕ için bir güven aralığı verilmiştir.ϕϕ\phiϕϕ\phi Şimdi ben, bazı diğer parametreleri ölçmek hem söylemek istediğim yeni deney yapmak …


1
Bayesli model seçimindeki Jeffreys-Lindley paradoksu için ne zaman endişelenmeliyim?
RJMCMC kullanarak keşfettiğim çeşitli karmaşıklık modellerinin geniş (ancak sonlu) bir alanını düşünürüm . Her model için parametre vektörünün öncüsü oldukça bilgilendiricidir. Hangi durumlarda (varsa) Jeffreys-Lindley paradoksundan , daha karmaşık modellerden biri daha uygun olduğunda daha basit modelleri tercih etmekten endişelenmeliyim ? Bayesci model seçimindeki paradoksun sorunlarını vurgulayan basit örnekler var …

3
Bilinmeyen ortalama ve varyans ile normal dağılım için Jeffreys Prior
Önceki dağılımları okuyorum ve Jeffreys'i, ortalama ve bilinmeyen varyansı bilinmeyen normal olarak dağıtılmış rasgele değişkenlerin bir örneği için hesapladım. Benim hesaplamalara göre, Jeffreys için aşağıdakiler daha önce geçerlidir: Burada,benFisher bilgi matristir.p ( μ , σ2) = de t ( I)-----√= de t ( 1 / σ2001 / ( 2 σ4))------------------√= …

2
MCMC örnekleyicileri için neden Jeffreys veya entropi temelli önceliklerin kullanılmasına karşı öneriler var?
On onların wiki sayfasından Stan devletin geliştiriciler: Sevmediğimiz bazı ilkeler: değişmezlik, Jeffreys, entropi Bunun yerine, birçok normal dağıtım önerisi görüyorum. Şimdiye kadar örnekleme itimat etmedi Bayes yöntemleri kullanılır ve nazik anlamış mutlu oldu neden binom olasılıkları için iyi bir seçimdi.θ ~ beta ( α = 12, β= 12)θ~Beta(α=12,β=12)\theta \sim \text{Beta}\left(\alpha=\frac{1}{2},\beta=\frac{1}{2}\right)
12 bayesian  mcmc  prior  pymc  stan 

1
LKJcorr neden korelasyon matrisi için iyi bir öncedir?
Özür (içinde bölüm 13 "Kovaryans Adventures in" okuma süper ) kitabında İstatistiksel Yeniden Düşünmek Richard McElreath tarafından o aşağıdaki hiyerarşik modeli sunar: ( Rbir korelasyon matrisidir) Yazar, LKJcorrkorelasyon matrisi için düzenli hale getirme önceliği olarak işe yaramadan önce bunun zayıf bilgilendirici olduğunu açıklar . Ama neden böyle? Hangi özelliklere LKJcorrdağıtımı …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.