«bayesian» etiketlenmiş sorular

Bayesci çıkarım, model parametrelerini rastgele değişkenler olarak ele almaya ve Bayes teoremini parametreler veya hipotezler hakkında gözlemlenen veri kümesine bağlı olarak subjektif olasılık ifadeleri çıkarmak için uygulamaya dayanan istatistiksel bir çıkarım yöntemidir.

1
Parametreler ve gizli değişkenler
Bunu daha önce sordum ve bir model parametresini neyin gizli bir değişken haline getirdiğini tanımlamakta gerçekten zorlanıyordum. Bu sitedeki bu konuyla ilgili çeşitli konulara bakıldığında, ana ayrım şöyle görünüyor: Gizli değişkenler gözlenmez ancak değişkenler ve parametreler de gözlendiğinden onlarla ilişkili bir olasılık dağılımına sahiptir ve onlarla ilişkili bir dağılımları yoktur …


1
Hamiltonian Monte Carlo ve ayrık parametre uzayları
Stantta yeni modeller yapmaya başladım ; aracı tanımak için Bayesian Veri Analizi (2nci baskı) 'daki bazı alıştırmalar üzerinde çalışıyorum. Waterbuck egzersiz varsayan bu verileri ile, ( N , θ ) bilinmeyen. Hamiltonian Monte Carlo ayrık parametrelere izin vermediğinden, N'yi gerçek bir ∈ [ 72 , ∞ ) olarak ilan ettim …


2
Büyük örnek boyutları için dağınıklık sorunu neden zorlaştırılır?
Varsayalım ki bir dizi . Her y i noktası p ( y i | x ) = 1 dağılımı kullanılarak oluşturulur y={y1,y2,…,yN}y={y1,y2,…,yN}\mathbf{y} = \{y_1, y_2, \ldots, y_N \}yiyiy_i Arka için elde etmek içinxbiz yazmak p(x|y)αp(y|x)p(X)=p(x) , N Π i=1p(yı|x). Minka'nınBeklenti Yayılımıbelgesine göreposterior elde etmek için2Nhesaplamayaihtiyacımız varp(yi|x)=12N(x,1)+12N(0,10).p(yi|x)=12N(x,1)+12N(0,10). p(y_i| x) = \frac12 …

1
Bayes glm'deki -değerlerini anlamama yardım et
Burada veriler üzerinde bir Bayesian logit çalıştırmak çalışıyorum . R paketinde kullanıyorum bayesglm(). armKodlama yeterince basit: df = read.csv("http://dl.dropbox.com/u/1791181/bayesglm.csv", header=T) library(arm) model = bayesglm(PASS ~ SEX + HIGH, family=binomial(link="logit"), data=df) summary(model) aşağıdaki çıktıyı verir: Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 0.10381 0.10240 1.014 0.311 SEXMale 0.02408 0.09363 0.257 …
13 r  bayesian  p-value 


5
R sadece HATA alternatifleri [kapalı]
Kapalı. Bu soru konu dışı . Şu anda cevapları kabul etmiyor. Bu soruyu geliştirmek ister misiniz? Sorunuzu güncelleyin o yüzden -konu üzerinde Çapraz doğrulanmış için. Geçen yıl kapalı . HATA ve R kullanarak Bayes istatistikleri üzerine bir kurs takip ediyorum. Şimdi, HATA zaten biliyorum, harika ama sadece R yerine ayrı …
13 r  bayesian  bugs 

1
Olasılık oranları ve Bayesci model karşılaştırması, sıfır hipotez testine üstün ve yeterli alternatifler sunuyor mu?
Kümülatif bir çaba olarak bilim için sıfır hipotez testinin (NHT) kullanımını eleştiren büyüyen istatistikçi ve araştırmacılara yanıt olarak, Amerikan Psikoloji Derneği İstatistiksel Çıkarım Görev Gücü, NHT'yi açıkça yasaklamayı önledi, ancak bunun yerine araştırmacıların NHT'den türetilen p değerlerine ek olarak etki büyüklüklerini bildirir. Bununla birlikte, etki boyutları çalışmalarda kolayca birikmez. Meta-analitik …

1
Yanma uzunluğunu ayarlamak için MCMC yakınsama teşhisini yarı otomatik hale getirebilir miyim?
Bir MCMC zinciri için yanma seçimini otomatikleştirmek istiyorum, örneğin bir yakınsama teşhisine dayanan ilk n satırı kaldırarak. Bu adım ne ölçüde güvenli bir şekilde otomatikleştirilebilir? Otokorelasyonu, mcmc izini ve pdfs'yi hala iki kez kontrol etsem bile, yanma uzunluğu seçiminin otomatik hale getirilmesi güzel olurdu. Sorum genel, ama bir R mcmc.object …
13 r  bayesian  mcmc 

3
MCMC'yi anlamak: alternatif ne olurdu?
İlk kez Bayes istatistiklerini öğrenmek; MCMC'yi anlamaya yönelik bir açı olarak merak ettim: temelde başka bir şekilde yapılamayan bir şey mi yapıyor yoksa alternatiflerden çok daha verimli bir şey mi yapıyor? Örnekleme yoluyla, verilerinin tersini hesaplayan bir model verilen parametrelerimizin olasılığını hesaplamaya çalıştığımızı varsayalım . Bunu doğrudan Bayes teoremiyle hesaplamak …
13 bayesian  mcmc 

1
Saf bayes sınıflandırıcısı neden 0-1 kaybı için optimal?
Naive Bayes sınıflandırıcısı, sınıf üyeliği için arka değerini en üst düzeye çıkararak öğelerini bir sınıfına atayan ve öğelerin özelliklerinin bağımsız olduğunu varsayan sınıflandırıcıdır .C P ( C | x )xxxCCCP(C|x)P(C|x)P(C|x) 0-1 kaybı, herhangi bir yanlış sınıflandırmaya "1" kaybı ve doğru sınıflandırmaya "0" kaybı atayan kayıptır. Sık sık (1) "Naive Bayes" …

2
Kovaryans fonksiyonlar veya çekirdekler - tam olarak nedir?
Gauss süreçleri ve bunların makine öğreniminde nasıl uygulandıkları konusunda oldukça yeniyim. Bu yöntemlerin ana cazibesi olan kovaryans fonksiyonları hakkında okumaya ve duymaya devam ediyorum. Öyleyse, herkes bu sezgisel işlevlerde neler olduğunu sezgisel bir şekilde açıklayabilir mi? Aksi takdirde, bunları açıklayan belirli bir öğreticiye veya belgeye işaret edebilirseniz.

1
Gibbs Çıktısından Marjinal Olasılık
Bölüm 4.2.1'deki sonuçları sıfırdan çoğaltıyorum. Gibbs Çıktısından Marjinal Olasılık Siddhartha Chib Amerikan İstatistik Derneği Dergisi, Vol. 432. (Aralık 1995), sayfa 1313-1321. Bilinen sayıdaki bileşenli normal modelin bir karışımıdır . k≥1k≥1k\geq 1f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σ2j).(∗)f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σj2).(∗) f(x\mid w,\mu,\sigma^2) =\prod_{i=1}^n\sum_{j=1}^k \mathrm{N}(x_i\mid\mu_j,\sigma_j^2) \, . \qquad (*) Bu model için Gibbs örnekleyicisi, Tanner ve Wong'un veri büyütme tekniği …

3
Bayesian vs MLE, aşırı uyum sorunu
Bishop'un PRML kitabında, aşırı sığmanın Maksimum Olabilirlik Tahmini (MLE) ile ilgili bir sorun olduğunu ve Bayesian'ın bundan kaçınabileceğini söylüyor. Ama bence, aşırı takma, parametre tahmini yapmak için kullanılan yöntemle değil, model seçimi ile ilgili bir sorundur. Yani, diyelim ki ile oluşturulan bir veri kümesi sahibim, şimdi verilere uymak ve bulmak …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.