Sıklık ve öncelikler


17

Robby McKilliam bu yazının yorumunda şöyle diyor :

Sıkça görülenler açısından, önceki bilgiyi modele dahil edememeniz için hiçbir neden olmadığı belirtilmelidir. Bu anlamda, sık görüş daha basittir, sadece bir modeliniz ve bazı verileriniz vardır. Önceki bilgileri modelden ayırmaya gerek yoktur

Ayrıca, burada , @jbowman, sıkıcıların maliyet / ceza işleviyle düzenlemeyi kullandığını söylerken, bayiler bunu bir önceki haline getirebilir:

Frekans uzmanları düzenlileştirmenin iyi olduğunu fark ettiler ve bunu bugünlerde oldukça yaygın olarak kullandılar - ve Bayesci öncelikler kolayca düzenleme olarak yorumlanabilir.

Benim sorum şu, genellikle frekansçılar Bayesianların öncelik olarak belirttikleri modellerine dahil edilebilir mi? Düzenlemeyi örnek olarak ele almak gerekirse, maliyet / ceza fonksiyonu gerçekten modele entegre edilmiş midir, yoksa çözümün ayarlanması için tamamen yapay bir yöntem midir?


Bir moderatör detay verebilmeleri için jbowman ve Robby'yi bilgilendirebilir mi? Yoksa bu uygun değil mi?
Patrick

1
Patrick sen "@" yapısını kullanarak bu sitenin hiçbir üyesini uyarabilir. Bunu küçük bir düzenleme ile gösterdim.
whuber

Her iki yerde de çalışır :-).
whuber

Gee, @whuber, bildirim almadım ... belki düzenlemeler yapmaz mı? Şimdi merak ediyorum.
jbowman

1
Tamam, yanılmışım : "@" mekanizması sorularda değil, yorumlarda çalışır. (Ama jbowman bu soruyu yine de buldu.)
whuber

Yanıtlar:


8

Robby McKilliam'ın yorumu ile ilgili olarak: Bence bir frekansçının bu konuda karşılaşacağı güçlük, önceki bilgiyi bir modele dahil etme yeteneği ile değil, "ön bilgi" tanımında yatıyor. Örneğin, belirli bir madalyonun kafaya gelme olasılığını tahmin etmeyi düşünün. Let us benim ön bilgi, esasen, bir deney olduğu o sikke 10 kez saygısız ve 5 veya belki, fabrika 1000000 paraları yapımı" formunun kafaları ve dist'n ile geldi edildi varsayalım olarak, büyük deneylerle belirlenen, β ( a , bpβ(a,b)".Bu türden önceden gerçekten bilgi sahibi olduğunuzda (Bayes Kuralı sadece koşullu olasılığı tanımlar, sadece Bayesci bir şey değildir) herkes Bayes Kuralını kullanır, bu yüzden gerçek hayatta frekansçı ve Bayesci aynı yaklaşımı kullanır ve bilgileri Bayes Kuralı aracılığıyla modele dahil edin. (Dikkat: örnek büyüklüğünüz yeterince büyük değilse, önceki bilgilerin sonuçlar üzerinde bir etkisi olmayacağından emin olabilirsiniz.) Ancak, sonuçların yorumu, tabii ki, farklı.

Zorluk, özellikle felsefi açıdan, bilgi daha az objektif / deneysel ve daha öznel hale geldikçe ortaya çıkar. Bu olduğu gibi, frekansçı muhtemelen bu bilgiyi modele dahil etme konusunda daha az eğilimli olacaktır, oysa Bayesçi hala bunu yapmak için az ya da çok resmi mekanizmalara sahiptir, buna rağmen öznel bir öngörüde bulunma güçlükleri vardır.

l(θ;x)p(θ)logp(θ)

θ~=maxθ{logl(θ;x)+logp(θ)}

İçin p(θ) Gauss, bu ikinci dereceden bir ceza küçülüyor θ Gauss'un ortalamasına doğru ve diğer dağıtımlar için. θ~aynı olasılık fonksiyonunu ve önceliğini kullanarak bir Bayesci'nin maksimum posteriori (MAP) nokta tahminine eşittir. Tabii ki, yine, sık ve Bayesci tahminlerin yorumlanması farklı olacaktır. Bayesian da tam bir posterior dağılıma erişimi olan bir MAP noktası tahmini kullanmakla sınırlandırılmamıştır - ancak daha sonra, frekansçının çeşitli sağlam tahminleri veya yöntemini kullanabilmek için düzenli bir günlük olasılığını en üst düzeye çıkarmak zorunda değildir. -mümkünse, vs.

Yine, zorluk felsefi açıdan ortaya çıkar. Neden bir düzenleme fonksiyonunu diğerine tercih etmelisiniz? Bir Bayesci, önceki bilgileri değerlendirerek bunu önceki temelli bir görünüme kaydırarak yapabilir. Bir frekansçı, bu gerekçelerle bir seçimi haklı çıkarmak için daha zor bir zamana sahip olamazdı (bunu yapamaz mıydı), ancak bunun yerine, büyük olasılıkla, eklemden öğrenildiği gibi, normalleştirme fonksiyonunun özelliklerine bağlı olarak yapması gerekir. birçok istatistikçinin iş / deneyimi. OTOH, (pragmatik) Bayesliler bunu önceliğiyle de yapıyorlar - okuduğum varyanslar için her bir kağıt için 100 dolar olsaydı ...

Diğer "düşünceler": Sıklık / Bayesci bakış açısından etkilenmediğini varsayarak, bir olasılık işlevi seçme konusunun tamamını atladım. Çoğu durumda olduğundan eminim, ancak olağandışı durumlarda bunun örneğin hesaplama nedenleriyle olacağını hayal edebiliyorum.

Özet: Sıklıkçıların, belki de bazı köşe vakaları dışında, Bayes'in yapabileceği önceki bilgileri neredeyse tamamen matematiksel ve hesaplama açısından dahil edebileceklerinden şüpheleniyorum. Sonuçların yorumlanması elbette farklı olacaktır. Bununla birlikte, sıkıntının bunu her durumda felsefi olarak doğru olarak kabul edeceğine inanmıyorum, örneğin, salonun aşağısında gerçekten bir şey bilen kişinin yukarıda olduğu düzenlenme işleviθ "Bence θ ve bir Jeffrey'in önceliği aracılığıyla cehalete yakın olmak da doğru.


Öyleyse, sizi doğru anlarsam: teknik olarak, resmi olarak, bir sıkıcı istediği kadar düzenleyebilir, ancak bunu haklı çıkarmakta sorun yaşayacaktır. Bir Bayesçi hala düzenliliğini ölçmede sorun yaşayabilir, ancak niteliksel olarak onu dahil etmenin tutarlı bir yolu var.
Patrick

Bayesian da tam bir posterior dağılıma erişimi olan bir MAP noktası tahmini kullanmakla sınırlandırılmamıştır - ancak daha sonra, frekansçının çeşitli sağlam tahminleri veya yöntemini kullanabilmek için düzenli bir günlük olasılığını en üst düzeye çıkarmak zorunda değildir. -mümkünse, vs. Frequentist'in maksimize etmesi gerekmez. Ama bu, eğer sıklıkla seçerse, Frequentists'in kullanabileceği bir yöntem, değil mi? Benim önsezim, tarihi nedenlerden ötürü (bilgisayar yok!) Sık sık, tam bir olasılık fonu hesaplamak yerine kullandıkları çok fazla akıllı tahminciye sahipler.
Patrick

5

Bu soruyu cevaplamak amacıyla, sıklığı "verilerin işlevlerinin örnekleme dağılımının özelliklerini ilgilendirmek" olarak tanımlamak yararlıdır. Bu tür fonksiyonlar nokta tahmin ediciler, test istatistiklerinin p değerleri, güven aralıkları, Neyman-Pearson test sonuçları veya temelde aklınıza gelebilecek başka herhangi bir şey olabilir. Sıklık, tahmincilerin, p-değerlerinin vb. Tam genel olarak nasıl oluşturulacağını belirtmez, ancak bazı yönergeler mevcut olsa da, örneğin, eğer mevcutlarsa yeterli istatistikleri kullanın, eğer varsa, önemli istatistikleri kullanın, vb. perspektif olarak, önceki bilgiler modele kendi başına dahil edilmez , daha ziyade fonksiyonun verileri fonksiyonun çıktısına eşleme fonksiyonuna dahil edilir.

Yukarıda değinilen "ilgi", önyargı eksikliği, asimtotik tutarlılık, varyans, ortalama kare hatası, ortalama mutlak hata, güven kapsamı (özellikle nominal ve gerçek), Tip I hata kontrolü ve herhangi bir şey gibi çıkarım için önemli kabul edilen özelliklerde bulunmaktadır. verilerden öğrenmek için bariz veya sezgisel bir öneme sahip. Bu özellikler, işlevin önceden bilgi içerip içermediğini (başka bir şey değilse, simülasyonla) değerlendirilebilir.

Özel ilgi alanı, veri oluşturma sürecinin altında yatan gerçek parametre değerleri ne olursa olsun elde tutulduğu bilinen özelliklere odaklanır. Örneğin, bilinen varyansı olan normal iid modelinde, veri ortalaması, ne olursa olsun, dağılım ortalaması için tarafsız ve asimptotik olarak tutarlıdır. Buna karşılık, bir büzülme tahmincisi (veri ortalamasının ağırlıklı bir ortalaması ve dağıtım ortalaması için bir ön tahmin), eğer dağıtım ortalaması önceki tahmine yakınsa daha düşük bir ortalama kare hatasına sahiptir, ancak aksi halde daha yüksek bir ortalama kare hatası asimtotik tutarlılığı veri ortalamasından devralır.

Bu yüzden, çıkarım yöntemine önceden bilgi koyabileceğimizi söyleyebilirim, ancak modele girmez. Fiziksel özellikler için mutlaka negatif olmayan güven aralıkları bağlamında özetlediğim kavramların gerçekten güzel bir örneği , Küçük Sinyallerin Klasik İstatistiksel Analizine Birleşik Bir Yaklaşım olan Feldman ve Kuzenler'dir .

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.