«bayesian» etiketlenmiş sorular

Bayesci çıkarım, model parametrelerini rastgele değişkenler olarak ele almaya ve Bayes teoremini parametreler veya hipotezler hakkında gözlemlenen veri kümesine bağlı olarak subjektif olasılık ifadeleri çıkarmak için uygulamaya dayanan istatistiksel bir çıkarım yöntemidir.


1
Bir lmer modelden etkilerin tekrarlanabilirliğinin hesaplanması
Bu yazıda , karışık etki modellemesi ile bir ölçümün tekrarlanabilirliğini (diğer bir deyişle güvenilirlik, sınıf içi korelasyon) nasıl hesaplayacağımı anladım . R kodu şöyle olurdu: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted repeatability R = …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 



3
Neden Jeffreys öncelikleri bilgisizdir?
Öncesinde Jeffreys düşünün nereye , nerede Fisher bilgidir.benp ( θ ) ∝ | i ( θ ) |----√p(θ)∝|i(θ)|p(\theta) \propto \sqrt{|i(\theta)|}benii Bunu daha önce bilgilendirici olmayan bir öncelik olarak bahsettiğimi görmeye devam ediyorum, ancak neden bilgilendirici olmadığı konusunda bir tartışma görmedim. Sonuçta, sabit bir öncelik değil, bu yüzden başka bir argüman …
27 bayesian  prior 



2
Dirichlet dağılımındaki alfa tam olarak nedir?
Bayesian istatistiklerinde oldukça yeniyim ve algoritmasının arka ucunda Dirichlet işlemini kullanan düzeltilmiş bir korelasyon ölçüsü olan SparCC ile karşılaştım . Neler olduğunu gerçekten anlamak için adım adım algoritmaya girmeye çalışıyorum ama alphabir Dirichlet dağılımında vector parametresinin ne yaptığından ve vector parametresini nasıl normalleştirdiğinden tam olarak emin değilim alpha? Uygulama Pythonkullanılıyor …


1
Değişken Bayes ve EM arasındaki ilişki
Bir yerde Değişken Bayes yönteminin EM algoritmasının bir genellemesi olduğunu okudum. Aslında, algoritmaların yinelemeli kısımları çok benzer. EM algoritmasının Variational Bayes'ın özel bir sürümü olup olmadığını test etmek için aşağıdakileri denedim: YYY veri, gizli değişkenlerin toplanması ve parametrelerdir. Varyasyonel . Nerede ler daha basit, uysal dağılımları vardır.Θ P ( X …

5
Olabilirlik konusundaki Wikipedia yazısı belirsiz görünüyor
"Koşullu olasılık" ve "Olabilirlik" ile ilgili basit bir sorum var. (Bu soruyu burada zaten araştırdım ancak boşuna yok.) Olasılıkla ilgili Wikipedia sayfasından başlar . Bunu söylüyorlar: Olabilirlik parametre değerlerinin bir dizi, , sonuçlar verilen , olduğu bileşiklerdir parametre değerleri verilenlerden gözlenen sonuçların olasılık, eşittirθθ\thetaxxx L(θ∣x)=P(x∣θ)L(θ∣x)=P(x∣θ)\mathcal{L}(\theta \mid x) = P(x \mid …

3
Bayesian öncelikleri büyük örneklem büyüklüğü ile ilgisiz mi oluyor?
Bayesian çıkarımı yaparken, olasılık fonksiyonumuzu, parametreler hakkında sahip olduğumuz öncelikler ile birlikte maksimize ederek çalışırız. Log olasılık daha uygun olduğu için, etkili bir şekilde en üst düzeye çıkarmak bir pdf kullanılarak arka dağılımları ürettiği başka bir şekilde MCMC ya da (kullanarak her parametrenin önceliği ve her veri noktasının olasılığı).∑ln(prior)+∑ln(likelihood)∑ln⁡(prior)+∑ln⁡(likelihood)\sum \ln …
26 bayesian  prior 

7
Olasılık / bilgiyi farklı kaynaklardan birleştirmek
Diyelim ki üç bağımsız kaynağım var ve her biri yarın hava durumu için tahminlerde bulunuyor. Birincisi, yarın yağmur olasılığının 0, ikincisi ise olasılığın 1 olduğunu ve sonuncusunun da olasılığın% 50 olduğunu söylüyor. Bu bilgi verilen toplam olasılığı bilmek istiyorum. Eğer çarpma teoremini bağımsız olaylar için uygularsam, 0 aldım, ki bu …

1
Gauss modelinde en küçük kareler ve MLE arasındaki denklik
Makine Öğrenimi konusunda yeniyim ve kendi başıma öğrenmeye çalışıyorum. Son zamanlarda bazı ders notlarını okuyordum ve temel bir sorum vardı. 13 no'lu slaytta “En Küçük Kare Tahmini Gauss modelinde Maksimum Olabilirlik Tahmini” ile aynıdır. Basit bir şey gibi görünüyor, ama bunu göremiyorum. Biri lütfen burada neler olduğunu açıklayabilir mi? Matematiği …

2
Bayesian yöntemlerinin fazla giyinmediği doğru mu?
Bayesian yöntemlerinin fazla giyinmediği doğru mu? (Bu iddiayı yapan bazı makaleleri ve dersleri gördüm) Örneğin, MNIST'e bir Gauss Süreci uygularsak (el yazısı basamaklı sınıflandırma), ancak yalnızca tek bir örnek gösterirsek, bu tek örneklemden farklı, ancak küçük olan fark için herhangi bir girdi için önceki dağıtıma geri dönecek mi?

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.