«bayesian» etiketlenmiş sorular

Bayesci çıkarım, model parametrelerini rastgele değişkenler olarak ele almaya ve Bayes teoremini parametreler veya hipotezler hakkında gözlemlenen veri kümesine bağlı olarak subjektif olasılık ifadeleri çıkarmak için uygulamaya dayanan istatistiksel bir çıkarım yöntemidir.

1
Pymc kullanarak Bayes ağ çıkarımları (Yeni başlayanların kafa karışıklığı)
Şu anda Coursera'da Daphne Koller'in PGM kursuna katılıyorum. Bu bağlamda, genellikle bir Bayes Ağı'nı, gözlemlenen verilerin bir parçası olan değişkenlerin bir sebep ve sonuç odaklı grafiği olarak modelliyoruz. Ancak PyMC öğreticileri ve örneklerinde genellikle PGM ile aynı şekilde modellenmediğini veya en azından kafam karıştığını görüyorum. PyMC'de gözlemlenen herhangi bir gerçek …

2
Hiyerarşik lojistik regresyon için neden Bernoulli parametresinde beta dağıtımı kullanıyorsunuz?
Şu anda Kruschke'nin mükemmel "Bayesian Veri Analizi Yapıyor" kitabını okuyorum. Bununla birlikte, hiyerarşik lojistik regresyon (Bölüm 20) bölümü biraz kafa karıştırıcıdır. Şekil 20.2, Bernoulli parametresinin bir sigmoid fonksiyon aracılığıyla dönüştürülen katsayılar üzerinde doğrusal bir fonksiyon olarak tanımlandığı hiyerarşik bir lojistik regresyonu tarif eder. Bu, çevrimiçi olarak diğer kaynaklarda da gördüğüm …

3
Bayes analizi için olasılık ve koşullu dağılım
Bayes teoremini şöyle yazabiliriz: p(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} burada arka, koşullu dağılım ve .p(θ|x)p(θ|x)p(\theta|x)f(X|θ)f(X|θ)f(X|\theta)p(θ)p(θ)p(\theta) veya p(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(\theta|x) = \frac{L(\theta|x)p(\theta)}{\int_{\theta} L(\theta|x)p(\theta)d\theta} burada arka, olabilirlik fonksiyonudur ve .p(θ|x)p(θ|x)p(\theta|x)L(θ|x)L(θ|x)L(\theta|x)p(θ)p(θ)p(\theta) Sorum şu Bayes analizi neden koşullu dağılım değil olasılık işlevi kullanılarak yapılıyor? Olasılık ve koşullu dağılım arasındaki farkın ne olduğunu kelimelerle söyleyebilir misiniz? Olasılık bir …

5
Bağımsız değişkenlerin standartlaştırılması kollearlığı azaltır mı?
Bayes / MCMC'de çok iyi bir metne rastladım. BT, bağımsız değişkenlerinizin standartlaştırılmasının bir MCMC (Metropolis) algoritmasını daha verimli hale getireceğini, ancak aynı zamanda (çoklu) çarpışabilirliği azaltabileceğini önermektedir. Bu doğru olabilir mi? Bu standart olarak yapmam gereken bir şey mi ? (Üzgünüm). Kruschke 2011, Bayesci Veri Analizi Yapmak. (AP) düzenleme: örneğin …


3
Araştırmacı 1 1000 regresyon, araştırmacı 2 sadece 1 çalışıyor, her ikisi de aynı sonuçları alıyor - farklı çıkarımlar yapmalılar mı?
Bir araştırmacının bir veri kümesini keşfettiğini ve 1000 farklı regresyon gerçekleştirdiğini ve aralarında ilginç bir ilişki bulduğunu düşünün. Şimdi , aynı verilere sahip başka bir araştırmacının sadece 1 regresyon gerçekleştirdiğini ve diğer araştırmacının bulmak için 1000 regresyon aldığını ortaya çıkardığını hayal edin . Araştırmacı 2 araştırmacı 1'i tanımıyor. Araştırmacı 1 …

2
Bir MCMC örneğinden Modun güvenilirliği
John Kruschke, Does Bayesian Veri Analizi adlı kitabında, R'den JAGS kullanırken ... bir MCMC örneğindeki modun tahmini oldukça kararsız olabilir çünkü tahmin, MCMC örneğindeki rastgele tümseklere ve dalgalanmalara duyarlı olabilen bir düzeltme algoritmasına dayanır. ( Bayesian Veri Analizi Yapma , sayfa 205, bölüm 8.2.5.1) Metropolis algoritmasını ve Gibbs örneklemesi gibi …
12 bayesian  mcmc  mode 




1
Bayesli model seçimindeki Jeffreys-Lindley paradoksu için ne zaman endişelenmeliyim?
RJMCMC kullanarak keşfettiğim çeşitli karmaşıklık modellerinin geniş (ancak sonlu) bir alanını düşünürüm . Her model için parametre vektörünün öncüsü oldukça bilgilendiricidir. Hangi durumlarda (varsa) Jeffreys-Lindley paradoksundan , daha karmaşık modellerden biri daha uygun olduğunda daha basit modelleri tercih etmekten endişelenmeliyim ? Bayesci model seçimindeki paradoksun sorunlarını vurgulayan basit örnekler var …

2
Bayes sinir ağı kullanmanın avantajları nelerdir?
Son zamanlarda bir sinir ağındaki girdi ve çıktı arasındaki olasılık ilişkisini veren Bayes sinir ağı (BNN) [Neal, 1992] , [Neal, 2012] hakkında bazı makaleler okudum . Böyle bir sinir ağını eğitmek, geleneksel geri yayılma algoritmasından farklı olan MCMC aracılığıyla yapılır. Sorum şu: Böyle bir sinir ağını kullanmanın avantajı nedir? Daha …


1
MCMC'de otokorelasyon grafiği nasıl yorumlanır
"Yavru kitap" olarak da bilinen John K. Kruschke'nin Bayesian Veri Analizi adlı kitabını okuyarak Bayesci istatistiklere aşina oluyorum . 9. bölümde, hiyerarşik modeller bu basit örnekle tanıtılmaktadır: ve Bernoulli gözlemleri 3'er madeni paradır, her biri 10 döndürür. Biri 9 kafa, diğeri 5 kafa ve diğeri 1 kafa gösterir.yj benθjμκ∼ B …

5
Çok sayıda veri noktasındaki değerlerin gösterimi nasıl yapılır?
Çok büyük bir veri setim var ve yaklaşık% 5 rasgele değerler eksik. Bu değişkenler birbiriyle ilişkilidir. Aşağıdaki örnek R veri kümesi sadece yapay korelasyonlu verilere sahip bir oyuncak örneğidir. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.