görünüşe göre, Bayes faktörü bir şekilde, her bir parametrenin tüm parametre alanı (örn. sadece MLE'de değil) üzerine entegre olma olasılığını temsil eden olasılıkları kullanmaktadır. Bu entegrasyon aslında tipik olarak nasıl sağlanır? Bir tanesi parametre uzayından binlerce (milyonlarca) rasgele örneğin her birinin olasılığını hesaplamaya mı çalışıyor, yoksa olasılığın parametre alanıyla bütünleştirilmesi için analitik yöntemler var mı?
İlk olarak, aşağıdaki gibi bir terim düşünün herhangi bir durum veri için ve model bir düşünülmektedir olabilirlik modeli. Bu genellikle, herhangi bir istatistiksel analizin sık ve ekimcisi olan sık ve Bayesian ekmeğidir ve bu, analizinizin önermek istediği kısımdır, ya iyi bir uyum ya da kötü bir uyumdur. Yani Bayes faktörleri, olasılık oranlarından temelde farklı bir şey yapmıyor.P(D|M)DM
Bayes faktörlerini doğru ayarlara koymak önemlidir. İki modeliniz varsa, söyleyin ve olasılıklardan olasılıklara dönüşüyorsanız, o zaman Bayes faktörleri önceki inançlarda bir operatör gibi davranır:
PosteriorOdds=BayesFactor∗PriorOdds
P(M1|D)P(M2|D)=B.F.×P(M1)P(M2)
Gerçek fark, olasılık oranlarının hesaplanması daha ucuz ve genellikle kavramsal olarak tanımlaması daha kolay olmasıdır. MLE'deki olasılık, sırasıyla, Bayes faktör pay ve paydasının sadece bir nokta tahminidir. En sık yapılan yapılar gibi, elde edilmesi zor olan bir önceliğe sahip özel bir Bayesian analiz durumu olarak görülebilir. Fakat çoğunlukla ortaya çıktı, çünkü analitik olarak izlenebilir ve hesaplanması daha kolay (yaklaşık Bayesian hesaplamalı yaklaşımlar ortaya çıkmadan önceki dönemde).
Hesaplama noktasında, evet: hemen hemen her pratik durum için Bayesian ortamındaki farklı olabilirlik integrallerini büyük ölçekli bir Monte Carlo prosedürüyle değerlendirebilirsiniz. Belirli dağılımlar varsa, çalışan GHK gibi bazı özel simülatörler vardır ve bu varsayımları yaparsanız, bazen tamamen analitik Bayes faktörlerinin var olduğu analitik olarak izlenebilir problemler bulabilirsiniz.
Ancak hiç kimse bunları kullanmaz; sebebi yok. En iyi duruma getirilmiş Metropolis / Gibbs örnekleyicileri ve diğer MCMC yöntemleriyle, bu sorunlara tam veri odaklı bir şekilde yaklaşmak ve integrallerinizi sayısal olarak hesaplamak tamamen izlenebilir. Aslında, çoğu kişi bunu hiyerarşik olarak yapar ve sonuçları veri toplama mekanizmaları, göz ardı edilemez deneysel tasarımlarla, vb. İlgili meta öncelikleriyle bütünleştirir.
Bu konuda daha fazla bilgi için Bayesian Veri Analizi kitabını öneririm . Bununla birlikte, yazar Andrew Gelman, Bayes faktörlerine fazla önem vermiyor gibi görünüyor . Bir kenara, Gelman ile katılıyorum. Eğer Bayesian'e gidecekseniz, o zaman tüm posteriordan istifade edin. Model seçimini Bayesian yöntemleriyle yapmak onları engellemek gibidir, çünkü model seçimi zayıf ve çoğunlukla işe yaramaz bir çıkarım şeklidir. Yapmanız gerekmiyorsa ... model seçimleri üzerindeki dağılımları bilmek isterdim ... bunu, "model A, model B'den daha iyidir" olarak belirlemeyi umursamaz.
Ek olarak, Bayes faktörünü hesaplarken, olasılık oranındaki gibi karmaşıklık için düzeltme (otomatik olarak onaylanmış olabilirlik tahmini veya AIC aracılığıyla analitik olarak) uygulanır mu?
Bu Bayesian yöntemleri hakkında güzel şeylerden biri. Bayes faktörleri teknik anlamda otomatik olarak model karmaşıklığını hesaba katar. İki modelden oluşan basit bir senaryo oluşturabilirsiniz , sırasıyla ve model karmaşıklığına sahip ve , ve bir örneklem büyüklüğü ile .M1M2d1d2d1<d2N
Daha sonra, eğer ile Bayes faktördür paydaki, varsayımı altında doğru olarak bir olduğunu kanıtlayan bir , yaklaşımlar Model karmaşıklığındaki farka bağlı olan ve Bayes faktörünün daha basit modeli tercih ettiği bir hızda . Daha spesifik olarak, yukarıdaki varsayımların tümü altında,B1,2M1M1N→∞B1,2∞
B1,2=O(N12(d2−d1))
Bu türetme ve Sonlu Karışım ve Markov Anahtarlama Modelleri'nden Sylvia Frühwirth-Schnatter adlı kitabın tartışmasına aşinayım, ancak bunun altında yatan epistemolojiye daha fazla dalmış olan daha doğrudan istatistiksel hesaplar var.
Ayrıntıları burada verecek kadar iyi bilmiyorum, ama bununla AIC'nin türetilmesi arasında oldukça derin bir teorik bağlantı olduğuna inanıyorum. Cover ve Thomas'ın Enformasyon Kuramı kitabı en azından bunu ima etti.
Ayrıca, olabilirlik oranı ile Bayes faktörü arasındaki felsefi farklar nelerdir (nb, olabilirlik oranı ile genel olarak Bayesian yöntemleri arasındaki felsefi farklar hakkında değil, genel olarak objektif kanıtların temsili olarak Bayes faktörü hakkında soruyorum). Kişi olabilirlik oranına kıyasla Bayes faktörünün anlamını belirlemeye nasıl devam eder?
"Yorum" Wikipedia makalenin bölümü bu (kanıt ölçek Jeffreys' gücünü gösteren özellikle grafiği) tartışırken iyi bir iş yapar.
Her zamanki gibi, Bayesian yöntemleri ve sık kullanılan yöntemler (zaten aşina olduğunuz gibi) arasındaki temel farklılıkların ötesinde çok fazla felsefi şey yoktur.
Önemli olan, olasılık oranının Hollandalı kitap anlamında tutarlı olmamasıdır. Olasılık oranlarından örnek seçim çıkarımının kaybedilen bahisleri kabul etmesine yol açacağı senaryoları yazabilirsiniz. Bayesian yöntemi tutarlı, ancak son derece zayıf olabilecek ve sübjektif olarak seçilmesi gereken bir öncekiyle çalışır. Tradeoff'lar .. tradeoff'lar ...
FWIW, bu tür ağır parametreleştirilmiş model seçiminin çok iyi bir çıkarım olmadığını düşünüyorum. Bayesian yöntemlerini tercih ediyorum ve bunları daha hiyerarşik olarak düzenlemeyi tercih ediyorum ve sonuç olarak hesaplamanın tümüyle mümkün olması durumunda çıkarımın tam posterior dağılıma odaklanmasını istiyorum. Bayes faktörlerinin bazı zarif matematiksel özelliklere sahip olduğunu düşünüyorum, ancak bir Bayesian olarak kendimden etkilenmedim. Bayesian analizinin gerçekten yararlı olan kısmını gizliyorlar, bu da sizi halının altına süpürmek yerine açıktaki öncelikleriyle uğraşmaya zorlar ve tam posteriorlar üzerinde çıkarım yapmanızı sağlar.