«bayesian» etiketlenmiş sorular

Bayesci çıkarım, model parametrelerini rastgele değişkenler olarak ele almaya ve Bayes teoremini parametreler veya hipotezler hakkında gözlemlenen veri kümesine bağlı olarak subjektif olasılık ifadeleri çıkarmak için uygulamaya dayanan istatistiksel bir çıkarım yöntemidir.

3
Bayes Teoremi'ndeki paydayı neden parçalara ayırıyorsunuz?
(İstatistiklere yeni girmiş biriyim. Matematikçi ve programcıyım ve saf bir Bayesian spam filtresi gibi bir şey oluşturmaya çalışıyorum.) Birçok yerde insanların, payesleri Bayes Teoremi'nden ayırma eğiliminde olduklarını fark ettim. Yani bunun yerine: P(A|B)⋅P(B)P(A)P(A|B)⋅P(B)P(A)\frac{P(A|B)\cdot P(B)}{P(A)} Bununla bizlere sunulmuştur: P(A|B)⋅P(B)P(A|B)⋅P(B)+P(A|¬B)⋅P(¬B)P(A|B)⋅P(B)P(A|B)⋅P(B)+P(A|¬B)⋅P(¬B)\frac{P(A|B)\cdot P(B)}{P(A|B)\cdot P(B)+P(A|\neg B)\cdot P(\neg B)} Bu konvansiyonun bu Wikipedia makalesinde ve Tim …
23 bayesian 


4
Neden Bayesian yöntemleri çoklu test düzeltmeleri gerektirmiyor?
Andrew Gelman, Bayesian AB testinin neden birden fazla hipotez düzeltmesi gerektirmediğine dair kapsamlı bir makale yazdı: Neden (Genellikle) Birden Çok Karşılaştırma Hakkında Endişelenmek Gerekmiyor , 2012. Tam anlamıyorum: neden Bayesian yöntemleri çoklu test düzeltmeleri gerektirmiyor? A ~ Distribution1 + Common Distribution B ~ Distribution2 + Common Distribution C ~ Distribution3 …

2
Laplace neden daha seyrek çözümler üretiyor?
Düzenlemeyle ilgili literatürü inceliyordum ve çoğunlukla L2 düzenlemesini Gaussian'la bağlayan, L1'i de sıfır merkezli olan L1'i bağlayan paragrafları görüyordum. Bu önceliklerin nasıl göründüğünü biliyorum, ama örneğin doğrusal modeldeki ağırlıklar ile nasıl ilişkili olduğunu anlamıyorum. L1'de, doğru anlarsam, seyrek çözümler bekleriz, yani bazı ağırlıklar tam olarak sıfıra itilir. Ve L2'de küçük …

3
Yoğunluk tahmininde bir Bayesian yaklaşımı var mı
Sürekli rastgele bir değişkeninin yoğunluğunu tahmin etmekle ilgileniyorum . Bunu öğrenmenin bir yolu Çekirdek Yoğunluğu Tahmini kullanımıdır.XXX Ama şimdi, aşağıdaki satırlardaki Bayes yaklaşımıyla ilgileniyorum. Başlangıçta F dağılımını takip ettiğine inanıyorum . Attığım n okumalar X . Yeni okumalarıma dayanarak F güncelleme konusunda bazı yaklaşımlar var mı ?F n X FXXXFFFnnnXXXFFF …

2
“Bayesian Akıl Yürütme ve Makine Öğrenimi” sonrası sonraki adımlar
Şu anda David Barber tarafından "Bayesian Reasoning and Machine Learning" den geçiyorum ve temelleri öğrenmek için oldukça iyi yazılmış ve ilgi çekici bir kitap. Bu yüzden bunu zaten yapmış olan birine bir soru. Barber'daki kavramların çoğunda makul bir yeterliliğe sahip olduktan sonra okumam gereken bir sonraki kitap seti hangileridir?

2
Model seçimi için en iyi yaklaşım Bayesian veya çapraz doğrulama?
Çeşitli modeller veya eklenecek özelliklerin arasında seçim yapmaya çalışırken, iki yaklaşım düşünebileceğimi tahmin ediyorum. Verileri eğitim ve test setlerine ayırın. Daha da iyisi, önyükleme ya da k-kat çapraz doğrulama kullanın. Her seferinde egzersiz setini eğitin ve test setindeki hatayı hesaplayın. Plot test hatası - parametre sayısı. Genellikle, böyle bir şey …


3
Hatalı bir önceki, uygun bir posterior dağılıma nasıl yol açar?
Önceden uygun bir dağıtım durumunda, P(θ∣X)=P(X∣θ)P(θ)P(X)P(θ∣X)=P(X∣θ)P(θ)P(X)P(\theta \mid X) = \dfrac{P(X \mid \theta)P(\theta)}{P(X)} ∝P(X∣θ)P(θ)∝P(X∣θ)P(θ) \propto P(X \mid \theta)P(\theta) . Bu adım için olağan gerekçelendirme, , in marjinal dağılımının açısından sabittir ve böylece posterior dağılımı elde ederken göz ardı edilebilir olmasıdır.XXXP(X)P(X)P(X)θθ\theta Ancak, uygunsuz bir öncelik durumunda, posterior dağılımın gerçekten var olduğunu nereden …

5
Bayes Teorem Sezgisi
Bayes teoreminin önceki , posterior , olasılık ve marjinal olasılık açısından sezgiye dayalı bir anlayışını geliştirmeye çalışıyorum . Bunun için aşağıdaki denklemi kullanıyorum: burada bir hipotezi veya inancı temsil eder ve veri veya kanıtları temsil eder. Posterior kavramını anladım - bu, önceki inancı ve bir olayın olasılığını birleştiren birleştirici bir …

3
Olabilirlik tanımı ile Frequentist ve Bayesian arasında bir fark var mı?
Bazı kaynaklar olabilirlik fonksiyonunun şartlı olasılık olmadığını, bazıları ise olduğunu söylüyor. Bu benim için çok kafa karıştırıcı. Gördüğüm en kaynaklarına göre, parametre olan bir dağılım olasılığı , belirli bir olasılık fonksiyonları bir ürün olmalıdır n numuneleri X i :θθ\thetannnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) Örneğin, Logistic Regression'da, en uygun …

1
Bootstrapping vs Bayesian Bootstrapping kavramsal olarak?
Bayesian Bootstrapping işleminin ne olduğunu ve bunun normal bootstrapping işleminizden ne şekilde farklı olacağını anlamada sorun yaşıyorum. Ve eğer biri sezgisel / kavramsal bir inceleme ve ikisinin karşılaştırmasını sunabilirse, bu harika olurdu. Bir örnek alalım. Diyelim ki [1,2,5,7,3] bir veri kümemiz var. X boyutuna eşit numune boyutları oluşturmak için birçok …

1
ROC eğrilerinin analizi için bir Bayesian metodu icat ettim mi?
önsöz Bu uzun bir yazı. Bunu tekrar okuyorsanız, arka plan materyali aynı kalmasına rağmen, soru bölümünü gözden geçirdiğimi lütfen unutmayın. Ek olarak, soruna bir çözüm geliştirdiğime inanıyorum. Bu çözüm gönderinin altında görünür. Özgün çözümümün (bu yazıdan düzenlenmiş; bu çözüm için düzenleme geçmişine bakın) mutlaka yanlı tahminler ürettiğine işaret ettiği için …


6
Poster önceliğe ve olasılığa göre çok farklı
Eğer önceki ve olasılık birbirinden çok farklıysa, bazen arkadakilerin hiçbirine benzemediği bir durum ortaya çıkar. Örneğin, normal dağılımları kullanan bu resme bakın. Her ne kadar bu matematiksel olarak doğru olsa da, sezgilerime uygun gözükmüyor - veriler güçlü tutulan inançlarımla veya verilerle uyuşmuyorsa, hiçbir menzilin iyi geçmesini beklememeyi ya da düz …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.