Ne zaman (eğer öyleyse) sıkça bir yaklaşım Bayesans'tan önemli ölçüde daha iyidir?


72

Arkaplan : Bayesian istatistiklerinde resmi bir eğitimim yok (daha fazla öğrenmeyi çok isterim), fakat yeterince bilgim var - bence - neden çoğu kişinin Frequentist istatistiklere tercih edildiğini düşündüğünün anlamını elde etmek için. Giriş istatistiğindeki lisans öğrencileri bile (sosyal bilimlerde) sınıf öğretiyorum Bayesian yaklaşımını çekici buluyorum - “Neden boş verilmişse verinin olasılığını hesaplamakla ilgileniyoruz? ? sıfır hipotezi Veya alternatif hipotez Ve ayrıca okudum konuları gibi bu yanı Bayesian istatistik ampirik yararları kanıtlamak, Ama sonra Blasco tarafından bu teklif geldi (2001; vurgu eklenmiştir).:

Hayvan yetiştiricisi, indüksiyonla ilgili felsefi problemlerle ilgilenmiyorsa, ancak problemleri çözen araçlarla ilgileniyorsa, hem Bayesyan hem de sık görülen çıkarım okulları iyi bir şekilde oluşturulmuştur ve neden birinin veya diğer bir okulun tercih edildiğinin gerekçelendirilmesi gerekli değildir. Şu anda hiçbiri, bazı karmaşık durumlar dışında, operasyonel zorluklar yaşıyor ... Bir okul seçmek veya diğerini seçmek, bir okulda diğerinin sunmadığı çözümler olup olmadığı , sorunların ne kadar kolay çözüldüğü ile ilgili olmalıdır. ve bilim insanının ne kadar rahat hissettiğini ifade etme biçiminin belirli bir şekilde.

Soru : Blasco'nun teklifi, Freyanist bir yaklaşımın aslında bir Bayesçiye tercih edilmesinin uygun olduğu zamanlar olabileceğini öne sürüyor. Bu yüzden merak ediyorum: ne zaman bir Bayesian yaklaşımına göre sıkça bir yaklaşım tercih edilir? Soruyu hem kavramsal olarak ele alan (yani, boş hipotezde yer alan verilerin özellikle yararlı mı?) Ve ampirik olarak (yani, Frequentist metotlar hangi koşullar altında Bayesian?

Cevapların mümkün olduğu kadar erişilebilir bir şekilde iletilmesi de tercih edilirdi - öğrencilerimle paylaşmak için dersime bazı cevaplar almam iyi olurdu (bazı teknik seviyelerin gerekli olduğunu bilmeme rağmen).

Son olarak, Frequentist istatistiklerin düzenli bir kullanıcısı olmama rağmen, aslında Bayesian’ün yeni tahtayı kazanma ihtimaline açığım.


10
Nesnel olasılıklarla, yani doğal olarak stokastik süreçlerle uğraşırken. Örneğin, radyoaktif bozunumun öznel inançlarınız veya bilinmeyen bilgilerinizle veya hemen hemen başka herhangi bir şeyle ilgisi yoktur. Sadece kendi temposuna gidiyor ve atomlar rastgele ayrılıyor.
Aksakal,

6
Maalesef sona eren bu son soruyu çok geniş olarak kapattım (Tekrar açmaya oy verdim, ancak olmadı): stats.stackexchange.com/questions/192572 . Neredeyse tamamen aynı şeyi soruyorsun. Cevabı kontrol et.
amip

5
@Aksakal: Bu tartışmayı yapmak isterdim ama konu dışı ve söylenecek, ben de susacağım (ve hesapladım).
amip

12
"Bayesanlar, hiç kimsenin kimsenin inanmadığı varsayımları kullanarak ilgilendikleri soruyu ele alırken, sık sık kişiler hiç kimsenin ilgisini
çekmeyen

4
Jsakaluk, Bayesyanların kalelerinin nasıl yeterli veri bulunmadığı ya da süreçlerin kararsız olduğu alanlar olduğunu, yani sosyal bilimler, psudo bilimleri, yaşam bilimleri vb. olduğuna dikkat edin. Kuantum mekaniğinde ya da fiziğin çoğunda Bayesian olmaya gerek yoktur. Kabul edilirse, orada da Bayesian olabilirsiniz, bu sadece sizin çıkarımlarınızın frekansçılardan farklı olmayacağıdır
Aksakal

Yanıtlar:


54

İşte frekansçı yöntemlerin tercih edilmesinin beş nedeni:

  • Daha hızlı. Bayesian istatistiklerinin sık sık cevaplara neredeyse aynı cevaplar vermesi göz önüne alındığında (ve alınmadığında, Bayesian’nin her zaman olduğu gibi olduğu% 100 açık değildir ), sıkça istatistiklerin çoğu zaman birkaç büyüklük sırası elde edilebileceği gerçeği güçlü bir argüman. Aynı şekilde, sık kullanılan yöntemler sonuçları depolamak için fazla bellek gerektirmez. Bu şeyler biraz önemsiz görünse de, özellikle daha küçük veri kümeleriyle, Bayesian ve Frequentist’in sonuçlarda genellikle aynı fikirde olması (özellikle çok sayıda bilgi verisi varsa), umursamayla ilgili daha az önemli olanla ilgilenmeye başlayabileceğiniz anlamına gelir. bir şeyler. Ve elbette, eğer büyük veri dünyasında yaşıyorsanız, bunlar önemsiz değildir.

  • Parametrik olmayan istatistikler. Bayesian istatistiklerinin parametrik olmayan istatistiklere sahip olduğunu kabul ediyorum, ancak alanın sık tarafının Ampirik Dağılım Fonksiyonu gibi gerçekten inkar edilemez pratik araçlara sahip olduğunu savunuyorum. Dünyadaki hiçbir yöntem hiçbir zaman EDF'nin, ne de Kaplan Meier eğrilerinin vb. Yerini almaz (bu yöntemlerin bir analizin sonu olduğu söylenemez).

  • Daha az tanılama. Bayesian modellerini yerleştirmek için en yaygın yöntem olan MCMC yöntemleri, tipik olarak, kullanıcı tarafından sıkça çalışan karşı parçalarından daha fazla iş gerektirir. Genellikle, bir MLE tahmininin teşhisi o kadar basittir ki, herhangi bir iyi algoritma uygulamasının otomatik olarak yapması gerekir (bununla birlikte, mevcut her uygulamanın iyi olduğunu söylemek değildir ...). Bu nedenle, frekansçı algoritmik teşhis tipik olarak "modele uyarlanırken kırmızı metin olmadığından emin olun" şeklindedir. Tüm istatistikçilerin bant genişliği sınırlı olduğu göz önüne alındığında, bu, "verilerim gerçekten normal mi?" veya "bu tehlikeler gerçekten orantılı mı?" vb.

  • Modelin yanlış tanımlanması altında geçerli çıkarım. Hepimiz "Tüm modeller yanlış ama bazıları yararlıdır" duyduk, ancak farklı araştırma alanları bunu az çok ciddiye alıyor. Frequentist literatür, model yanlış belirlendiğinde çıkarımı düzeltmek için yöntemlerle doludur: önyükleme tahmincisi, çapraz doğrulama, sandviç tahmincisi (bağlantı ayrıca model yanlış tanımlaması altındaki genel MLE çıkarımını da tartışır), genelleştirilmiş tahmin denklemleri (GEE'ler), yarı olabilirlik yöntemleri, vb bildiğim kadarıylaBununla birlikte, Bayesian literatüründe, modelin yanlış tanımlanması altındaki çıkarım hakkında çok az şey vardır (her ne kadar model kontrolü, yani arka tahmin kontrolleri hakkında çok fazla tartışma vardır). Bunu sadece tesadüf eseri olarak düşünmüyorum: bir tahmincinin tekrarlanan denemelere göre nasıl davrandığını değerlendirmek, tahmincinin "gerçek" bir modele dayanmasını gerektirmez, ancak Bayes teoremini kullanır!

  • Birinden özgürlük (bu muhtemelen insanların neden Bayesian yöntemlerini her şey için kullanmamasının en yaygın nedenidir). Bayesian bakış açısının gücü genellikle önceliklerin kullanımı olarak lanse edilir. Ancak, çalıştığım tüm uygulamalı alanlarda, analizden önce bilgilendirici bir fikir olduğu düşünülmemektedir. İstatistiki olmayan uzmanların önceliklerini nasıl çıkartacağınıza dair literatür okumak, bunun için iyi bir nedendir; Şeyleri söyleyen makaleleri okudum (kendi isteğimi yorumlayan acımasız saman adam gibi) "Sizi işe alan araştırmacıya sorun, çünkü hayal etmekte zorlayacakları etki büyüklüğünün% 90'ı kadar bir aralık vermeleri için istatistikleri anlamada zorluk çekiyorlar. Bu aralık genellikle çok dar olacaktır, bu yüzden keyfi olarak biraz genişletmelerini sağlayın, inançlarının gama dağılımına benzemesini isteyin. Muhtemelen onlar için bir gama dağılımı çizmeniz ve şekil parametresi küçükse nasıl ağır yazılara sahip olabileceğini göstermeniz gerekecektir. Bu aynı zamanda PDF'nin kendilerine ne olduğunu açıklamayı da içerecektir. ”(Not: İstatistikçilerin bile gerçekten doğru bir şekilde söyleyebileceklerini sanmıyorum.önsel etki boyutu aralığında yer almaktadır, ve bu fark analizi üzerinde önemli bir etkiye sahip olup olmadığını,% 90 ya da belirli bir% 95 olup!). Gerçeği söylemek gerekirse, çok kaba davranıyorum ve bir önceliğe sahip olmanın biraz daha kolay olabileceği durumlar olabilir. Ama bunun bir kurtçuk kutusudur. Bilgilendirici olmayan önceliklere geçseniz bile, yine de bir sorun olabilir; Parametreleri dönüştürürken, bilgilendirici olmayan öncelikler için kolayca yanlış olan şeyler aniden çok bilgilendirici olarak görülebilir! Bunun başka bir örneği ben ısrarla yapmak birkaç araştırmacılarla konuştum olmasıdır değilBaşka bir uzmanın verileri yorumlamasının ne olduğunu duymak istiyorum çünkü ampirik olarak diğer uzmanlar kendinden emin olma eğilimindedir. Sadece diğer uzmanın verilerinden neyin çıkarılabileceğini bilmek istiyorlar ve sonra kendi sonuçlarına geliyorlardı. Nerede duyduğumu hatırlayamıyorum, ama bir yerlerde "Eğer bir Bayesian iseniz, herkesin bir Sıkça Olmasını İstiyorsunuz" ifadesini okudum. Teorik olarak demek gerekirse, eğer bir Bayesli iseniz ve birisi analiz sonuçlarını açıklarsa, önce onların etkilerini ortadan kaldırmaya çalışmalı ve sonra kendinizin kullanmış olsaydı, etkinin ne olacağını bulmalısınız. Bu küçük egzersiz, size güvenilir bir aralıktan çok bir güven aralığı vermiş olsalardı, basitleştirilecekti!

Tabii ki, bilgilendirici öncelikleri bırakırsanız, Bayesian analizlerinde hala fayda var. Şahsen, en yüksek faydalarının yattığına inandığım yer; MLE yöntemlerini kullanmaktan herhangi bir cevap almak son derece zor olan ancak MCMC ile kolayca çözülebilen bazı problemler vardır . Fakat bunun Bayesian'ın en yüksek faydası olduğu konusundaki görüşüm, tarafımdaki güçlü önceliklerden kaynaklanıyor, o yüzden bir tuz tuzu ile alın.


1
(1) Güzel cevap, sana do demek farz ediyorum gerçi değil sonuçlarını saklamak için olduğu kadar bellek gerektirir?
jsakaluk

1
Önceliklerden gelen özgürlük açısından: Sorunu ne kadar az düşünmek ve anlamak zorunda kaldığınızı mı söylüyorsunuz? Sizinle konuşmak isteyen birkaç yazılım satıcısının tanıdığını biliyorum, bu nedenle işaret tıklayabilir - veya daha iyisi, tek tıklamayla - ve hayal edebileceğiniz herhangi bir soruna cevap alabilirsiniz! Heck, bir soruna bile ihtiyacınız yok, sadece verilerinizi web sitelerine besleyin ve olası tüm sorunları bulur ve çözer, tatlı! (Üzgünüm, acımasız bir saman adam gibi yorum ile cevap veremedi.)
Wayne

1
@Wayne: Şaka yaptığını biliyorum, ama bu% 100 doğru. İstatistik, gerçek dünyadaki problemleri cevaplamak için bir araçtır. Bunun bir araç olduğunu, nihai bir ürün olmadığını vurgulamak istiyorum. "Frequentist vs Bayesian" argümanının hangi tarafının ne kadar belirgin olduğuna bakılmaksızın (hangi soruya en iyi cevabı verirsem "tarafına oturuyorum" anlamına gelir; bu da farklı problemler için her ikisini de seviyorum anlamına gelir), kullanım kolaylığı Herhangi bir araç için çok gerçek bir yardımcı.
Cliff AB,

Tabii ki, eğer aletiniz sık sık korkunç bir ürün üretiyorsa sorun. Ve sıkça bir yöntemin bunu yaptığına ikna olsaydım, ancak bir Bayesian yöntemi değildi, Bayesian yöntemini hemen onaylardım.
Cliff AB,

1
@CliffAB: Kullanım kolaylığı önemlidir ve sonuçlar eşit kalitede ise dediğiniz gibi, neden kullanımı daha zor seçilsin? Aynı zamanda, düşünmek, açıklamak ve öncelikleri anlamak (Bayesian değil, kelimenin tam anlamıyla her bilim insanının, her alanın ve her çalışmanın sahip olduğu öncelikleri kastediyorum) iyi bilim için kritiktir. Bayes istatistikleri açıktır ve sizi bu konular hakkında düşünmeye ve anlamaya zorlar. Bunun yalnızca sersemletici bir rahatsızlık olmadığı ölçüde, tartışmasız iyidir ve bu nedenle bunun tersi de çarpma serseri değildir.
Wayne,

23

Sık istatistiklerin birkaç somut avantajı:

  • Sık sık sorunlara yönelik kapalı form çözümleri çoğu zaman vardır, oysa Bayesian analogunda kapalı form çözümüne sahip olmak için bir konjugata ihtiyacınız olacaktır. Bu, birkaç işlem için faydalıdır - bunlardan biri hesaplama zamanıdır.
  • İnşallah sonunda ortadan kalkacak bir sebep: meslekten olmayanlara istatistikçiler öğretilir. Birçok kişi tarafından anlaşılmak istiyorsanız, sıkça konuşmanız gerekir.
  • "Kanıtlanana Kadar Masum" Boş Hipotez Önemlilik Testi (NHST) yaklaşımı, amaç birisinin yanlış olduğunu ispatlamakta faydalıdır (hakkınızı alacağım ve ezici verinin yanlış olduğunuzu gösterdiğini göstereceğim). Evet, Bayesian’de NHST analogları var, ancak frekansçı versiyonları çok daha basit ve yorumlanabilir buluyorum.
  • Orada böyle bir şey bir şekilde gerçekten bazı insanlar rahatsız ediyor uninformative önce.

1
(+1) Teşekkürler - ilk noktayı biraz netleştirir misiniz? Birisi Bayesian konusunda çok bilgili değil gibi, nokta bir ihtiyaç hakkında yapıyoruz "konjugat önce" bana biraz kaybolur ... (?)
jsakaluk

5
P(H0|Data)P(Data|H0)α

@ ZacharyBlumenfeld Bunu gösterdiğiniz için teşekkürler, aklımda Bayesian vardı. Şimdi düzelteceğim.
TrynnaDoStat

1
αβα+i=1nxiβ+ni=1nxiHerhangi bir simülasyon, örnekleme veya yoğun hesaplama yapmak zorunda kalmadan).
TrynnaDoStat

16

Şaşırtıcı bir şekilde henüz belirtilmemiş olan Frequentist yaklaşımları kullanmanın en önemli nedeni hata kontrolüdür. Çok sık olarak, araştırma iki taraflı yorumlara yol açar (bunun üzerine bir araştırma yapmalı mıyım yoksa yapmamalı mıyım? Bir müdahale yapmalı mı, yapmamalı mı?). Sık görüşme yaklaşımları, Tip 1 hata oranınızı kesinlikle kontrol etmenizi sağlar. Bayes yaklaşımı yok (bazıları evrensel olabilirlik yaklaşımlarından kaynaklansa da, ancak o zaman bile, hata oranları küçük örneklerde ve göreceli olarak düşük kanıt eşikleriyle (ör., BF> 3) oldukça yüksek olabilir. Bayes faktörleri (örneğin http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2604513) ama bu hala Frequentist bir yaklaşım. Araştırmacılar, hata kontrolü konusunda kendileri için kanıtların ölçülmesinden (bazı spesifik hipotezlere göre) daha fazla önem verdiklerini düşünüyorum ve en azından herkesin hata kontrolünü bir dereceye kadar umursadığını düşünüyorum ve bu nedenle iki yaklaşım kullanılmalıdır. bütünleyici.


İyi bir nokta. Ayrıca, grup sıralı metotları ve diğer çoklu test formlarını da düşünüyorum, burada (dar bakış açısına göre, literatürün önemli kısımlarını gözden kaçırmış olabilir) Bayesyen tarafın ilgisini çekmiyordu. uzak) bir çeşit hata kontrolü sağlama açısından. Tabii ki birçok durumda Bayesian yöntemleri - özellikle biraz şüpheci öncelikleri veya hiyerarşik bir modelde bir çeşit büzülme ile bazı hataları tahmin edilemeyen derecelerde kontrol eder, ancak buradaki sıklık konusunda çok daha fazla düşünmeye devam edilir.
Björn

3
(+1) Bu noktadan gerçekten hoşlanıyorum ... felsefi olarak sıkça davranmamın nedeni olduğu için .... çıkarım konusunda yardımcı olacak istatistikler yaptığımızda, çıkarımlarımızın daha doğru olmasını istiyoruz (yani daha az hata) kör tahmin etmekten daha iyidir. Aslında, çıkarımlarımı gerçekten doğru veya yanlıştır (takip eden çalışmalar tarafından onaylanma anlamında) önemsiyorsam, hata oranları çok önemlidir. Bn sadece Bayes ile rahat olasılık (ancak, kendilerini mantıklı olarak çok yararlı olan yöntemler olgu sayısının az olması bir miktar için "kestiricilerini regularlized" ... düşünmek Agresit-Coull)

Bu, bayes / frekansçı karşılaştırmaya göre karar teorisine benziyor. Ayrıca, bayes yaklaşımıyla durma kuralları hakkında endişelenmenize gerek yok… Ayrıca bayeslerin tip 1 ve tip 2 hata oranları arasında daha iyi bir "denge" elde edebileceğini de biliyorum ....
olasılık

8

Bence bir istatistikçi olarak en büyük sorulardan biri, kendinize sormanız gereken, olasılık ilkesine inanıp inanmamanız. Olasılık ilkesine inanmıyorsanız, o zaman istatistiklere sıkça benzeyen paradigmanın son derece güçlü olabileceğini düşünüyorum, ancak, olasılık ilkesine inanıyorsanız, o zaman (inanıyorum) kesinlikle Bayesyan paradigmasını içinde bulundurmanız gerekir. ihlal etmemek için.


Bilmediğiniz durumda, olasılık ilkesinin bize söylediği şey şudur:

θx

(θ;x)=p(x|θ)
x

xy(θ;x)(θ;y)C(x,y)

(θ;x)=C(x,y)(θ;y)for all θ,

xy

C(x,y)(x,y)C(x,y)θ

C(x,y)=1θθ


Şimdi, Bayesian istatistiklerinin sonuçlarından biri, uygun öncelikler altında, Bayesian paradigmasının, olasılık ilkesini asla ihlal etmemesidir. Bununla birlikte, frekansçı paradigmanın olasılık ilkesini ihlal edeceği çok basit senaryolar vardır.

İşte hipotez testine dayanan çok basit bir örnek. Aşağıdakileri göz önünde bulundur:

12 Bernoulli denemesinin yapıldığı ve 3 başarı görüldüğü bir deney düşünün. Durma kuralına bağlı olarak, verileri aşağıdaki gibi tanımlayabiliriz:

  • X|θBin(n=12,θ)x=3
  • Y|θNegBin(k=3,θ)y=12

Ve böylece aşağıdaki olasılık fonksiyonlarını elde edeceğiz: ki bu, ve bu nedenle, Olabilirlik İlkesi , her iki olasılıktan da ilgili aynı çıkarımları almalıyız .

1(θ;x=3)=(123)θ3(1θ)92(θ;y=12)=(112)θ3(1θ)9
1(θ;x)=C(x,y)2(θ,y)
θ

Şimdi, sık kullanılan paradigma paradigmasından aşağıdaki hipotezleri test etmeyi hayal edin

Ho:θ12versusHa:θ<12

Binom modeli için aşağıdakilere sahibiz:

p-value=P(X3|θ=12)=(120)(12)12+(121)(12)12+(122)(12)12+(123)(12)12=0.0723

Dikkat edin , ancak diğer terimler yapmak olasılık ilkesini karşılamıyor.(123)(12)12=1(12;x=3)

Negatif Binom modeli için aşağıdakilere sahibiz:

p-value=P(Y12|θ12)=(112)(12)12+(122)(12)12+(132)(12)12+...=0.0375

Yukarıdaki p-değer hesaplamalarından Binom modelinde ancak Negatif Binom modelini kullanarak reddedeceğimizi . Bu nedenle, orada p-değerleri vardır ve bu p-değerlerine dayanan kararları . Bu p değeri argümanı Bayesanlar tarafından Frequentist p değerlerinin kullanımına karşı sıklıkla kullanılan bir argümandır.HoHo1(θ;x)2(θ;y)

Şimdi aşağıdaki hipotezleri tekrar test etmeyi düşünün, ancak Bayes paradigması paradigmasından

Ho:θ12versusHa:θ<12

Binom modeli için aşağıdakilere sahibiz:

P(θ12|x)=1/21π(θ|x)dx=1/21θ3(1θ)9π(θ)dθ/01θ3(1θ)9π(θ)dθ

Benzer şekilde, Negatif Binom modeli için aşağıdakilere sahibiz:

P(θ12|y)=1/21π(θ|x)dx=1/21θ3(1θ)9π(θ)dθ/01θ3(1θ)9π(θ)dθ

Şimdi Bayesian karar kurallarını kullanarak, (veya başka bir eşik) varsa seçin ve için benzer şekilde tekrarlayın .Ho yP(θ12|x)>12y

Ancak, ve böylece biz de varacağız Aynı sonuca ve dolayısıyla bu yaklaşım olasılığını Prensibi yerine getirir.P(θ12|x)=P(θ12|y)


Ve böylece, benim huzursuzluklarımı bitirmek için, olasılık ilkesini umursamıyorsan, o zaman sık olmak harika! (Söyleyemezseniz, ben Bayesiyim :))


1
Açıkça düşünceli (ve muhtemelen zaman alan) yanıtı takdir ediyorum, ancak bu cevabın, sorunun cevabının "mümkün olduğu kadar erişilebilir bir şekilde ... ... verildiği cevaplarından" biraz ayrıldığını hissediyorum.
jsakaluk

1
Jsakaluk Neyi hedeflediğimi tahmin ediyorum ve tartışmayı desteklemek istediğimden emin olmak istedim, eğer uygulamalı istatistikçilerin her zaman kabul ettiği belirli şeyleri gözden kaçırmaya istekliysen, yani olasılık ilkesini, sonra Frekansist paradigma, Bayesian paradigmasına çok daha basit bir alternatif olabilir. Ancak, o zaman yapamazsanız, muhtemelen alternatifler bulmanız gerekecektir.
RustyStatistician

4
@RustyStatistician Olabilirlik ilkesi, olabilirlikçiler için merkezi bir prensiptir. Likelihoodists Bayes olmayan hiç . Cevabımda bağlantılar yayınladım. "Olasılık ilkesine inanıyorsanız, o zaman (inanıyorum) kesinlikle Bayesian paradigmasını benimsemeniz gerektiği" iddiası yanlıştır.
Stan

@Stan, evet olabilirlikçilerin olabilirlik prensibine inandıklarına kesinlikle katılıyorum. Ama herhangi bir Bayesana sorarsanız, söylemediklerini söyleme ihtimaline uymadıklarına inanıp inanmadıklarını sormadıklarına inanmak son derece zor olacaktır (bu sadece benim görüşüme katılmanıza gerek yok).
RustyStatistician

2
Olasılık ilkesi (LP), şartlılık ilkesi (CP) ve yeterlilik ilkesinin (SP) çıkarsamadaki rolleri basit değildir. Bunun nedeni, bu ilkelerin delillerle (çünkü veriler tarafından sunulduğu şekilde) ilgilidir, oysa çıkarım delillerin ötesine geçmeyi içerir. . Bu her zaman risklidir ancak ilerleme kaydetmek için gereklidir. Birnbaums Teoremi'ne bakınız (burada tartışılan… Makalenin geri kalanıyla aynı fikirde değilim): arxiv.org/abs/1302.5468

6

Siz ve ben ikimiz de bilim insanıyız ve bilim insanları olarak başlıca kanıtlarla ilgileniyoruz. Bu nedenle, uygulanabilir olduğunda Bayesian yaklaşımlarının tercih edildiğini düşünüyorum.

Bayesci yaklaşımlar sorumuza cevap veriyor: Bir hipotez için kanıtın diğerine göre gücü nedir? Diğer taraftan, sık görüşme yaklaşımları şunları yapmaz: Sadece bir hipotez verildiğinde verinin tuhaf olup olmadığını bildirirler.

Bununla birlikte, dikkat çeken Bayesian Andrew Gelman, model spesifikasyonundaki hataları kontrol etmek için p-değerlerinin (veya p-değerine benzer grafik kontrollerin) kullanılmasını destekliyor gibi görünüyor. Bu blog yazısında bu yaklaşıma bir ima görebilirsiniz .

Anladığım kadarıyla yaklaşımı iki aşamalı bir süreç gibi bir şey: Birincisi, Bayesian sorusuna bir model için diğerinin kanıtının ne olduğunu soruyor. İkincisi, Frequentist sorusuna, tercih edilen modelin verilere bakıldığında tüm makul olanlara bakıp bakmadığı sorusunu sorar. Bana makul bir melez yaklaşım gibi görünüyor.


1
Gelman bloguna olan bağlantı geçerli kalsa da, gece yarısından sonra "bugünün" olmayacak. Buna göre düzenlendi.
Nick Cox,

8
Sık görüşlü yaklaşımların delilleri ölçmediği ve bunun yalnızca Bayes dünyasında olduğu göstergesine kesinlikle katılmıyorum. LR testi gibi bir hipotez testinin kaynağını dışlıyorsunuz, bir hipotezin kanıtını diğerinin kanıtlarına karşı ölçer.
Cliff AB,

1
(+1) to @CliffAB - "sıkça" istatistikler hakkında düşünen herkes için, lütfen, lütfen "olasılık oranını", "Birnbaum Teoremi'ni" ve "biraz Royall" ı okuyun. NHST ile ilgili insan argümanları - ki bu arada, sözde felaket kusurlarına rağmen bilimsel ilerlemeyi hafifletmemiş gibi görünüyordu… bunun nedeni istatistikçilerin karbon temelli MINITAB programları olmadıklarıdır… Aslında tıp, tıp ya da ekonomi ya da oto-mekanik gibi bir meslek, ... sadece bir kitap okuyamaz, bir formül deneyemez ve gerçeğin kucağına düşmesini bekleyemezsin].

2
@Bey: Şahsen, (biyologlar yarı zamanlı istatistikçiler onlar biyologlar olmak olsun süresini azaltarak, bildiri yayımlamak olmaya zorlanmaktadır ki) p-değerleri bilimsel süreç bazı yutucuların yapmış inanıyoruz yapmak, ama bilmiyorum p-değerlerine alternatiflerin hiçbir şekilde bu sorunu azalttığını düşünmeyin! P-değerleri meselesinin teorik arka planı değil, istatistikçi olmayanların kullanım kolaylığı olduğunu hissediyorum. Posterior olasılıklar (örneğin), bence bu sorunu daha iyi değil, daha da kötüleştirir.
Cliff AB

2
@CliffAB daha fazla hemfikir olamazdı ... o taraftan düşünmedi… ama sanırım yayıncılığın doğası budur ... araştırma departmanları personel istatistikçilerine sahip olamıyorsa. Herhangi bir istatistiksel araç kullanımı konusunda bilgili olmayan bir kişi tarafından kötüye kullanılabilir ... yazık istatistik araçları kullanımı çok kolay görünüyor ...

6

Şahsen ben sık sık cevabın bir Bayesçiye göre tercih edileceği bir durumu düşünmekte zorlanıyorum. Düşüncelerim burada ve fharrell.com'daki diğer blog yazılarında p-değerleri ve boş hipotez testi ile ilgili sorunlar hakkında ayrıntılı . Sık görüşmeler birkaç temel sorunu görmezden gelme eğilimindedir. İşte sadece bir örnek:

  • Sabit varyanslı Gauss lineer modelinin dışında ve diğer birkaç durumda, hesaplanan p değerleri, veri kümeniz ve modeliniz için bilinmeyen doğruluktadır.
  • Deney sıralı veya uyarlamalı olduğunda, genellikle bir p değerinin bile hesaplanamadığı ve biri yalnızca genel bir seviyesi ayarlayabileceği durumdur.α
  • Frekans uzmanları, tip I hatasının aşağı inmesine izin vermemekten mutlu görünüyorlar, örneğin, 0.05 şimdi ne olursa olsun, numune büyüklüğü büyüyor
  • Çokluklu düzeltmelerin nasıl oluşturulduğuna dair sıkça bir reçete yoktur, bu da geçici bir yöntem çukurluğuna yol açmaktadır.

İlk noktaya gelince, yaygın olarak kullanılan bir model ikili lojistik modelidir. Günlük olasılığı çok karesel değildir ve bu tür modeller için hesaplanan güven sınırlarının ve p değerlerinin büyük çoğunluğu pek doğru değildir. Kesin çıkarım sağlayan Bayesian lojistik modeliyle karşılaştır.

Diğerleri, sıkça çıkarım kullanmanın bir nedeni olarak hata kontrolünden bahsetmiştir . Çünkü bu, mantıklı olduğunu düşünmüyorum hata onlar başvurmak için istatistiksel testler binlerce çalıştırmak edildiği bir süreç öngören uzun dönem hatadır. "Mahkememdeki uzun süredir mahkumiyet olasılığının sadece 0,03 olduğunu" söyleyen bir yargıç yasaklanmalıdır. Mevcut savunucu için doğru kararı verme olasılığının en yüksek olduğu suçlanıyor . Diğer yandan, bir eksi etkinin arka olasılığı sıfır veya geriye doğru etki olasılığıdır ve gerçekte ihtiyacımız olan hata olasılığıdır.


2
"Çokluklu düzeltmelerin nasıl oluşturulduğuna dair sıkça bir reçete yoktur, bu da geçici bir yöntem çukurluğuna yol açar." Öte yandan, hiçbir zaman Bayesyen çokluk düzeltmesi yaparken hiç görmedim. Andrew Gelman, onları hiç kullanmadığını gururla ilan eder. Örneğin, insanların için% 95'lik güvenilir aralıklar , ancak bu aralıklarının ortak güvenilirliği % 95 değil. Bu konuyu en iyi nasıl ele alacağınız da açık değildir. Herhangi bir tavsiye veya örnek var mı? kθ1,,θkk
civilstat

5

Birçok insan üçüncü bir felsefi okuldan haberdar görünmüyor: olabilirlik. AWF Edwards'ın kitabı, Olabilirlik, muhtemelen okuması gereken en iyi yer. İşte yazdığı kısa bir makale.
Olabilirlikçilik Bayesianizm gibi p-değerlerden kaçınırken, Bayesian'ın daha önce şüpheli olduğu da kaçınır. Burada da bir intro tedavisi var .


5
Kolmogorov'un fikirlerinden geliştirilen Vovk'un algoritmik olasılık yaklaşımı var.
Aksakal,

2
"Pek çok kişi üçüncü bir felsefi okuldan haberdar değil: olasılıkçılık" Bu cümlenin 2016'da doğru olduğunu sanmıyorum ...
Tim

4
Biliyorum herkes frequentism ve Bayesianism aşina olmasına rağmen @Tim, hiç tanımadığım kimseyi likelihoodism duymuştum. Asıl sorgulayıcı, sıklıkta eğitim almış ve Bayesianizm ile daha fazla ilgilenmeye başlayan meslektaşlarım gibi görünüyor. Belki de yukarıdaki cevabımı okuyan çoğu kişi, en yüksek olabilirlik tahminine ya da olasılık oranlarını kullanarak hipotezleri test etmeye değindiğimi düşünüyor. Hayır! Ben önermek Yudi Pawitan ve bu ders
Stan

7
Bu yaklaşımların hiçbiri din değildir, bu yüzden inanılacak pek bir şey yoktur, sadece bazı problemler için faydalıdır ve bazı yaklaşımlar bazı problemlere ve diğerleri için daha uygun olur :)
Tim

1
(+1) okuldan bahsettiği ve Pawitan ile ilgili yorum yaptığı için. Pawitan'ın "Her Şeye Gibi Olabilir" kitabı istatistiksel uygulamalarla çarpıcı biçimde genişledi ve geliştirildi ... Ben de sadece Bayes ve Frequentism'in farkındaydım. Bayes, "klasik" sıklıkçılığın birçok felsefi ve metodolojik yönüyle uğraşıyor ve elbette saf olabilirlik okulunu da kapsıyor. Felsefi eğilimlerinizden bağımsız olarak, istatistiklerin daha gelişmiş bir kullanıcısı olmak için harika bir kitap.

4

En büyüklerinden biri dezavantajları TrynnaDoStats yaptığı ilk noktada notları olarak binayı modellemek için frequentist yaklaşımların her zaman büyük kapalı form çözümler tersini ile ilgili zorluklar olmuştur. Kapalı form matris inversiyonu, tüm matrisin RAM'de saklanmasını, büyük miktarda veri içeren veya büyük kategorik özelliklere sahip tek CPU platformlarında önemli bir sınırlama olmasını gerektirir. Bayesian yöntemleri, önceden belirlenmiş bir rastgele çekilişi simüle ederek bu zorluğun üstesinden gelebildi. Bu her zaman Bayesian çözümlerinin en büyük satış noktalarından biri olmuştur, ancak cevaplar CPU'da sadece önemli bir maliyetle elde edilir.

Andrew Ainslie ve Ken Train, yaklaşık 10 yıl önceki bir makalede referansımı kaybettim, sonlu karışımları (sık veya kapalı formda) Bayesian yaklaşımlarını modelleme yaklaşımlarıyla karşılaştırdılar ve geniş bir yelpazedeki fonksiyonel formlar arasında buldular. ve performans ölçütleri, iki yöntem esasen eşdeğer sonuçlar verdi. Bayesian çözümlerinin bir kenarı olduğu veya daha fazla esnekliğe sahip olduğu yerlerde, bilginin hem seyrek hem de çok yüksek olduğu durumlarda vardı.

Bununla birlikte, bu makale, büyük ölçüde paralel platformlardan yararlanan “böl ve ele geçir” algoritmaları geliştirilmeden önce yazılmıştı, örneğin, bu http://dimacs.rutgers.edu/TechnicalReports/TechReports/2012/2012- 01.pdf

D&C yaklaşımlarının ortaya çıkışı, en zorlu, en geniş, en yüksek boyutlu problemler için bile, Bayesian yaklaşımlarının sık sık yöntemlere göre bir avantaja sahip olmadığı anlamına geliyordu. İki yöntem aynı düzeydedir.

Bu nispeten yeni gelişme, her iki yöntemin de pratik avantajları veya kısıtlamaları hakkındaki herhangi bir tartışmada dikkat çekmeye değer.


Bu tartışmaya güzel bir katkı olduğunu düşünüyorum (+1) ama takip etmekte zorlanıyorum. Gerçekten, gerçekten, gerçekten yumruk çizgisini erteliyor ... Belki biraz düzenleyebilirsin? :)
usεr11852

@ kullanici11852 Yazının, gazetecilik standartlarına uygun olmayan bir mantık geliştirmesi bulurken faydalı bir şey iletemediğini söylemiyorsunuz. Bu konu “topluluk” haline geldiğinden, öneriniz etrafında yeniden düzenlemek için çalışmaya meyilli değilim (motive?). Olduğu gibi durabilir. Ancak yine de oy ve yorum için teşekkür ederiz.
Mike Hunter, 19

1.) Matris inversiyonu, çoğu zaman MLE tahmini için kullanılır (ki bu, çoğu sık kullanılan yöntemlerden yalnızca biridir), ancak her zaman değil. MLE kestirimindeki çalışmam, çoğu zaman parametreye göre optimizasyon içerir (örn. Parametre alanı örneklem büyüklüğü ile doğrusal olarak büyüyebilir) ve matris inversiyonu kesinlikle bir seçenek değildir ... ama yine de olasılığını optimize ediyorum! 2.) Matris inversiyonu, blok güncelleyici örnekleyici gibi Bayesci istatistiklerinde hala her zaman olur. n
Cliff AB,

@CliffAB Çapraz ürün matrisinin ANOVA tipi inversiyonunu düşünüyordum.
Mike Hunter,

@DJohnson: Anladım. Ancak benim açımdan, matris inversiyonunun frekansçı-bayes yöntemlerine göre dik olduğu; Her iki kampta da yöntemlerinin çoğunda çok benzer bir şey (en azından hesaplama maliyetleri) yapan araçlar kullanıyor.
Cliff AB

3

Sık yapılan testler, sıfır hipotezini tahrif etmeye odaklanır. Bununla birlikte, Boş Hipotez Önemlilik Testi (NHST) Bayes bakış açısıyla da yapılabilir, çünkü her durumda NHST sadece P'nin bir hesaplamasıdır (Gözlemlenen Etki | Etki = 0). Bu nedenle, NHST'yi sık sık bir perspektiften yürütmenin ne zaman gerekli olacağını belirlemek zordur.

Bununla birlikte, NHST'yi sık sık bir yaklaşım kullanarak yürütmek için en iyi argüman kolaylık ve erişilebilirliktir. İnsanlara sıkça istatistik öğretilir. Bu nedenle, sıkça çalışan bir NHST'yi çalıştırmak daha kolaydır, çünkü bunu yapmayı kolaylaştıran daha pek çok istatistiksel paket vardır. Benzer şekilde, sık kullanılan bir NHST'nin sonuçlarını iletmek daha kolaydır, çünkü insanlar bu NHST formuna aşinadırlar. Bu yüzden, sık yaklaşım yaklaşımları için en iyi argüman olarak görüyorum: Onları çalıştıracak istatistik programlarına erişebilirlik ve sonuçların iş arkadaşlarına iletişim kolaylığı. Bu sadece kültürel bir durum olsa da, bu yaklaşım, sıklıkla yaklaşımların hegemonyalarını yitirmesi durumunda değişebilir.


5
Kesin alıntılar yapamadıkça, Fisher'ın ne düşündüğü hakkındaki yorumlar burada çok fazla göründü. Boş hipotez, bilim insanlarını küçük örneklerden gelen sonuçların aşırı yorumlanmasından caydırmaya çalışmak için bir önemlilik testinin parçası olarak kullanılan bir cihazdır. Fisher, bilim insanlarının iyi bilim yapmak için istatistik kullanması gerektiği kadar herkes kadar istekliydi; Kendisi genetiğe çok ciddi bir katkı yaptı.
Nick Cox,

4
Tamamen katılıyorum ve bu yüzden Fisher'ın zihinsel durumu hakkındaki spekülasyonları kaldırmak için cevabı değiştirdim.
Liz Page-Gould

3

Birkaç yorum:

  • Bayesci ve frekansçı istatistikçiler arasındaki temel fark, bayesyeninin, olasılık araçlarını, frekansçıların yapamayacağı durumlara yaymaya istekli olmasıdır.

    • Daha spesifik olarak, bayes, belirsizliği çeşitli parametreler üzerinde kendi zihninde modellemek için olasılık kullanmaya isteklidir . Sıklığa göre, bu parametreler skalerdir (istatistikçinin gerçek değeri bilmediği skaler olsa da). Bayesian için, çeşitli parametreler rasgele değişkenler olarak temsil edilir! Bu son derece farklı. Parametreler valeus üzerinde Bayes en belirsizlik bir temsil edilir öncesinde .
  • Bayesci istatistiklerinde, umut, verileri gözlemledikten sonra, posterior öncekinin önemsememesidir. Ancak bu genellikle durum böyle değildir: sonuçlar önceliğin seçimine duyarlı olabilir! Farklı önceliğe sahip farklı Bayezyenlerin posterior üzerinde anlaşması gerekmez.

Akılda tutulması gereken en önemli nokta, frekansçı istatistikçilerin ifadelerinin, önceki iki inançlarına bakılmaksızın, iki Bayesan'ın hemfikir olabileceği ifadeleri olduğudur!

Frekansçı, öncelikler veya posterler üzerine yorum yapmaz, sadece olabilir.

Sıkcı istatistikçilerin ifadeleri bir anlamda daha az iddialıdır, ancak Bayesyan'ın daha sert ifadeleri, bir önceliğin atanmasına büyük ölçüde güvenebilir. Önceliklerin önem taşıdığı ve öncelikler konusunda anlaşmazlıkların olduğu durumlarda, daha sınırlı, koşullu sık sık istatistik ifadeleri daha sert bir şekilde durabilir.


2

Çok fazla araştırmanın amacı nihai bir sonuca ulaşmak değil, yalnızca topluluğun bir soru sorusunu bir yönde ilerletmek için giderek daha fazla kanıt elde etmektir .

İhtiyacınız olan şey, eldeki kanıtlar ışığında bir kararı veya sonucu değerlendirmek olduğunda Bayesian istatistikleri vazgeçilmezdir. Bayesian istatistikleri olmadan kalite kontrolü mümkün olmazdı. Bazı verileri almanız ve bunun üzerinde hareket etmeniz gereken her türlü prosedür (robotik, makine öğrenmesi, iş karar vermesi) Bayesian istatistiklerinden yararlanır.

Ancak birçok araştırmacı bunu yapmıyor. Bazı denemeler yapıyorlar, bazı veriler toplıyorlar ve sonra “Veriler bu noktaya işaret ediyor” diyorlar , başkalarının şimdiye kadar topladıkları tüm kanıtlara verilen en iyi sonuç olup olmadığı konusunda çok fazla endişelenmeden . Bilim yavaş bir süreç olabilir ve "Bu modelin doğru olma olasılığı% 72!" genellikle erken veya gereksizdir.

Bu, basit bir matematiksel yolla da uygundur, çünkü sık kullanılan istatistikler çoğu zaman matematiksel olarak bir Bayesian istatistiğinin güncelleme adımıyla aynıdır. Başka bir deyişle, Bayesian istatistikleri (Önceki Model, Kanıt) → Yeni Model iken, sıkça istatistik yalnızca Kanıttır ve diğer iki bölümü doldurmak için başkalarına bırakır.


Bu yazının çoğu ilginç olsa da, birçok desteklenmeyen fikirden oluşuyor. Lütfen bu sitede ne tür cevaplar beklendiği konusunda yardım merkezimize danışın .
whuber

@whuber görüyorum. Başımın üstünden hatırlayabildiğim bir alıntı ekledim, ancak geri kalan alıntılarım yok, bu yüzden eğer desteklenmiyorsa, silebilirim.
Owen,

5
Kalite kontrolünden bahsetmiş olmanıza şaşırdım, çünkü olasılıkların sık yorumlanmasının (birçok denemede göreceli sıklık) çok doğal olacağı bir alan gibi görünüyor: fabrikanın doğru çalıştığı göz önüne alındığında, bu kadarı ne kadar görebileceğimizi düşünüyoruz (veya daha fazla) kırılmış widget? Sizi Bayesian istatistiklerini QC için özellikle yararlı kılan konular üzerinde yoğunlaşabilir miyim?
Matt Krause,

@MattKrause Amacımızın arızalı widget'ları <% 1 oranında göndermektir. Fabrikanın% 10 oranında arızalı aletler ürettiğini biliyoruz ve Tip-I ve Tip-II hata oranları s ve 1 / (sqrt (4 - 1 / s ^ 2)) olan bir testimiz var. katılık parametresi. Kesinlik için ne kullanmalıyız?
Owen,

2
Sık istatistiklerin art arda yapılan çalışmalardan gelen bilgileri birleştiremediği düşüncesi meta-analiz alanını görmezden geliyor gibi görünmektedir.
Cliff AB,

2

Bir Bayesian yönteminin gerçek uygulaması bir Frequentist'ten daha tekniktir. "Daha teknik" derken, şöyle bir şey demek istiyorum: 1) öncelikleri seçmek, 2) modelinizi bir BUGS / JAGS / STAN'da programlamak ve 3) örnekleme ve yakınsama hakkında düşünmek.

Açıkçası, # 1, Bayesian tanımı gereği pek isteğe bağlı değildir. Her ne kadar bazı problemler ve prosedürler olsa da, sorunu kullanıcıdan bir şekilde gizleyen makul varsayılanlar olabilir. (Buna rağmen sorunlara da neden olabilir!)

# 2'nin sorun olup olmadığı, kullandığınız yazılıma bağlıdır. Bayesian istatistikleri, sık kullanılan istatistiksel yöntemlerden daha genel çözümlere yönelmiştir ve BUGS, JAGS ve STAN gibi araçlar bunun doğal bir ifadesidir. Bununla birlikte, tipik yazılım prosedürlerinde olduğu gibi görünen çeşitli yazılım paketlerinde Bayesian işlevleri vardır, bu nedenle bu her zaman bir sorun değildir. (Ve R paketleri gibi yeni çözümler rstanarmve brmsbu boşluğu dolduruyor.) Yine de, bu araçları kullanmak yeni bir dilde programlamaya çok benzer.

Madde 3, genellikle gerçek dünyadaki Bayesian uygulamalarının çoğu MCMC örneklemesini kullanacağı için uygulanabilir. (Öte yandan, sık kullanılan MLE tabanlı prosedürler, yerel bir minimaya yaklaşabilen veya hiç birleşmeyen optimizasyon kullanıyor ve bunu kaç kullanıcının kontrol etmeli ve etmemesi gerektiğini merak ediyorum?)

Bir yorumda dediğim gibi, önceliklerden özgürlüğün aslında bilimsel bir fayda olduğundan emin değilim. Kesinlikle birkaç şekilde ve yayın sürecinde birçok noktada uygun, ancak aslında daha iyi bir bilim için yapıldığından emin değilim. (Ve büyük resimde, bilim insanı olarak önceliklerimizin farkında olmamız gerekiyor, yoksa hangi istatistiksel yöntemleri kullandığımızdan bağımsız olarak, araştırmalarımızdaki her türlü önyargıdan muzdarip olacağız.)


(3) ile ilgili olarak, birçok klasik istatistik modelinde (yani, glm'ler) içbükey kütük olasılıkları vardır, bu nedenle, aşırı köşe durumlarda dışında standart algoritmaların başarısız olması çok nadirdir. İçbükey olmayan problemlere (yani NN'ler) ilişkin olarak, bunlar uygunsuz yakınsama (genellikle kullanıcılar tarafından anlaşılır) hakkında ağır endişe gerektirmekle birlikte, bunlar klasik tescilli olmayanların sadece klasik olarak çalışanlar için başarısızlıkla sonuçlanabileceği problemlerdir. , diyelim, bir insanın ömrü. Ancak, MCMC'yi düzeltmek genellikle optimizasyon algoritmasından ziyade daha az gerdirir!
Cliff AB,

2

Kavramsal olarak : Bilmiyorum. Bayesian istatistiklerinin düşünmenin en mantıklı yolu olduğuna inanıyorum, ancak nedenini haklı çıkarmayacağını düşünüyorum.

Sık görüşmenin avantajı, ilköğretim seviyesindeki çoğu insan için daha kolay olmasıdır. Ama benim için garipti. Bir güven aralığının ne olduğunu entelektüel olarak açıklığa kavuşturmam yıllar aldı. Fakat pratik durumlarla yüzleştiğimde, sık görüşlerin basit ve yüksek derecede alakalı olduğu ortaya çıktı.

ampirik

Bugünlerde odaklanmaya çalıştığım en önemli soru pratik verimlilik hakkında daha fazla: kişisel çalışma süresi, hassasiyet ve hesaplama hızı.

Kişisel çalışma süresi: Temel sorular için neredeyse hiç Bayesian yöntemlerini kullanmam: Temel frekans araçları kullanıyorum ve her zaman bana sadece bir baş ağrısı verebilecek bir Bayesian eşdeğeri üzerinde bir t-testi tercih edeceğim. Tictactoe'da kız arkadaşımdan daha iyi olup olmadığımı bilmek istediğimde, bir kare kare yapıyorum :-). Aslında, bir bilgisayar bilimcisi olarak yapılan ciddi çalışmalarda bile, sık temel araçlar, sorunları araştırmak ve rastgele sonuçlardan kaynaklanan yanlış sonuçlardan kaçınmak için paha biçilmezdir.

Kesinlik: Tahminin analizden daha önemli olduğu makine öğrenmesinde, Bayesian ile sık görüşme arasında mutlak bir sınır yoktur. MLE, sıkça yaklaşan bir yaklaşımdır: sadece bir tahminci. Ancak düzenli MLE (MAP) kısmen bir Bayesian yaklaşımıdır : posterior modunu buluyorsunuz ve posterior'un geri kalanını umursamıyorsunuz. Düzenlemenin neden kullanıldığına dair sıkça bir gerekçeyi bilmiyorum. Pratik olarak, düzenlileştirme bazen kaçınılmazdır, çünkü ham MLE tahmini, 0'ın daha iyi bir yordayıcı olacağı şekilde fazladan donatılmıştır. Düzenlemenin gerçekten bir Bayesian yöntemi olduğu kabul edilirse, bu tek başına Bayes'in daha az veri ile öğrenebileceğini doğrular.

Hesaplama hızı: sık kullanılan yöntemler en çok hesaplama açısından daha hızlı ve uygulaması daha kolaydır. Ve her nasılsa, düzenli hale getirme, onlara bir miktar Bayes tanıtmak için ucuz bir yol sağlar. Bunun nedeni, Bayesian yöntemlerinin hala olabilecekleri kadar optimize edilmemeleridir. Örneğin, bazı LDA uygulamaları günümüzde hızlıdır. Ancak çok sıkı çalışma gerektiriyorlardı. Entropi tahminleri için ilk ileri yöntemler Bayesian'dı. Çok iyi çalıştılar, ancak çok geçmeden sık kullanılan yöntemler keşfedildi ve çok daha az hesaplama zamanı aldı ... Bayesian iseniz, sık sık yöntemlerle Bayesian yöntemlerinin yaklaşımı olarak düşünmek saçma değildir.


2
“Düzenlemeyi neden kullanmanın sıkça gerekçelendirildiğini bilmiyorum”. Bu kolay; tekrarlanan denemeler altında, örnek dışı hatayı azalttığı gösterilmiştir.
Cliff AB,

2

Belirli bir Frequentist temelli yaklaşımın esasen herhangi bir Bayesyen'e egemen olduğu bir problem tipi , M-açık vakasında öngörü öngörüsüdür.

M-open ne anlama geliyor?

M-open, verileri üreten gerçek modelin, düşündüğümüz modellerde görünmediğini ima eder. Örneğin, asıl ortalaması bir işlevi olarak ikinci dereceden ise , ancak yalnızca ortalama doğrusal bir işlevi olan modelleri göz önüne alırsak, M-açık durumdayız. Başka bir deyişle, modelin yanlış tanımlanması M açık bir dava ile sonuçlanır.yxx

Çoğu durumda, bu Bayesian analizleri için büyük bir problemdir; Bildiğim hemen hemen tüm teori, modelin doğru bir şekilde tanımlanmasına dayanıyor. Elbette, kritik istatistikçiler olarak, modelimizin her zaman hatalı olduğunu düşünmeliyiz. Bu oldukça önemli bir konudur; Teorimizin çoğu, modelin doğru olmasına dayanıyor, ancak hiçbir zaman olmadığını biliyoruz. Temel olarak, modelimizin fazla yanlış olmadığını umarak parmaklarımızı çarpıştık .

Frequentist yöntemler neden bunu daha iyi ele alıyor?

Hepsi değil. Örneğin, standart hataları oluşturmak veya tahmin zamanları oluşturmak için standart MLE araçları kullanırsak, Bayesian yöntemlerini kullanmaktan daha iyi değiliz.

Ancak, tam olarak bu amaç için özel olarak amaçlanan belirli bir Frequentist aracı var: çapraz doğrulama. Burada, modelimizin yeni veriler üzerinde ne kadar iyi olacağını tahmin edebilmek için, modelin yerleştirilmesinde sadece verilerin bir kısmından ayrılıyoruz ve modelimizin görünmeyen verileri ne kadar iyi tahmin ettiğini ölçüyoruz.

Bu yöntemin, modelin spesifikasyonunu belirlemede tamamen kararsız olduğuna dikkat edin, yalnızca modelin "doğru" olup olmadığına bakılmaksızın, bir modelin yeni veriler üzerinde ne kadar iyi olacağını tahmin etmemiz için bir yöntem sağladığımızı unutmayın.

Ben bu gerçekten Bayes perspektiften haklı zor öngörü modellemesi yaklaşımını değiştirdi iddia etmek çok zor olduğunu sanmıyorum (önceki görmeden verilerine önce ön bilgileri temsil etmek gerekiyordu, olabilirlik fonksiyonu olan birine modeli, vs.) Sıkça bakış açısıyla haklılaştırmak çok kolaydır (tekrarlanan örneklemede örneklem hatalarından en iyi sonucu veren model + regülasyon parametrelerini seçtik).

Bu, öngörücü çıkarımın nasıl yapıldığına dair tamamen devrim yarattı. Herhangi bir istatistikçinin, uygun olduğunda çapraz doğrulama ile oluşturulmuş veya kontrol edilmemiş öngörücü bir modeli ciddiye alacağını (ya da en azından, gerekeceğini) sanmıyorum (örneğin, gözlemlerin bağımsız olduğunu, hesap vermeye çalışmayacağını düşünebiliriz. örnekleme önyargısı vb. için).

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.