Bayesian dışı öngörücü çıkarım (SLR vakası dışında) nispeten yeni bir alandır. "Bayesian olmayan" başlığı altında, yaklaşımları "klasik" frekansçılara karşı "olasılık" temelli olanlara bölebiliriz.
Klasik Frekanscı Tahmin
αβ
Şimdi, genellikle genel PI'lerin çoğu istatistik kursunda sunulması ve öğretilmesiyle ilgili sorunlar yaşadım, çünkü ezici eğilim, bunları kesinlikle Bayesian arka öngörücü aralıkları olarak yorumlamaktır, ki bunlar kesinlikle değil. En temelde, farklı olasılıklardan bahsediyorlar! Bayesian, miktarlarının tekrarlanan örnekleme performansları hakkında hiçbir iddiada bulunmaz (aksi halde sık görüşme yaparlar). İkincisi, bir Bayesian PI aslında Klasik Bir Öngörü Aralığı'ndan daha Klasik Bir Tolerans Aralığı ile ruhani açıdan benzer bir şeyi gerçekleştiriyor.
Referans için: Tolerans Aralıklarının iki olasılık tarafından belirtilmesi gerekir : Güven ve kapsam. Güven, tekrarlanan örneklerde ne kadar doğru olduğunu gösterir. Kapsam, bize gerçek dağılımın altındaki aralığın minimum olasılık ölçüsünü bildirir (PI'nın aksine, tekrarlanan örneklemede tekrar beklenen olasılık ölçüsünü verir ). Temel olarak, Bayesian PI'nin de yapmaya çalıştığı şey, fakat tekrarlanan örnekleme talepleri olmadan.
Dolayısıyla, İstatistik 101 Basit Doğrusal Regresyonun temel mantığı, PI'nin tekrarlanan örnekleme özelliklerini normallik varsayımı altında türetmektir. Tipik olarak “klasik” olarak düşünülen ve intro istatistik sınıflarında öğretilen sık + Gauss yaklaşımı. Bu, sonuçta elde edilen hesaplamaların basitliğine dayanmaktadır ( hoş bir genel bakış için Wikipedia'ya bakınız ).
Gauss olmayan olasılık dağılımları genel olarak problemlidir, çünkü bir aralık elde etmek için özenle ters çevrilebilecek çok önemli miktarları içeremezler. Bu nedenle, bu dağılımlar için "kesin" bir yöntem yoktur, çünkü genellikle aralığın özellikleri gerçek temel parametrelere dayanır.
Bu yetersizliği kabul ederek, olasılık yaklaşımıyla birlikte başka bir tahmin sınıfı (ve çıkarım ve tahmin) ortaya çıktı.
Olabilirliğe Dayalı Çıkarım
Olabilirlik temelli yaklaşımlar, pek çok modern istatistiksel kavram gibi, Ronald Fisher'a kadar uzanıyor. Bu okulun temel fikri, özel durumlar dışında, istatistiksel çıkarımlarımızın, olasılık olasılıklarını tam olarak verebileceğimiz normal bir dağılımdan (parametre tahminleri dikey olan ) çıkarımlarla uğraşmakta olduğumuzdan daha mantıklı bir zeminde olmadığıdır . Bu çıkarım görüşünde, kesin durum dışında olasılıkla ilgili ifadelerden gerçekten kaçınılmalı, aksi halde ihtimalle ilgili ifadeler yapılmalı ve birinin kesin olasılık olasılığını bilmediğini (sık sık bir anlamda) kabul etmelidir.
Bu nedenle, olabilirliği Bayesian olasılığına benzer olarak görebiliriz, ancak entegrasyon gereklilikleri ya da sık sık olasılıkla muhtemel karışıklıklar olmadan. Yorumlanması tamamen özneldir ... ancak tek bir parametre çıkarımı için genellikle 0.15 olabilirlik oranı önerilir.
Bununla birlikte, kişi açıkça “olasılık aralıkları” veren kağıtları görmemektedir. Niye ya? Olasılık temelli güven ifadelerine alıştığımız için, bunun büyük ölçüde bir sosyoloji meselesi olduğu anlaşılıyor. Bunun yerine, sıkça gördüğünüz şey, bunun “yaklaşık” veya “asimptotik” güven aralığına atıfta bulunan bir yazardır. Bu aralıklar büyük ölçüde, olasılık oranının asimptotik Ki-kare dağılımına dayandığımız olasılık olabilirlik yöntemlerinden türetilmiştir, aynı şekilde örnekleme ortalamasının asimptotik normalliğine güveniyoruz.
Bu "düzeltme" ile artık Bayesliler kadar mantıksal tutarlılığa sahip "yaklaşık"% 95 Güven Bölgelerini oluşturabiliriz.
Olabilirlik Çerçevesinde CI'dan PI'ya
Yukarıdaki olasılık yaklaşımının başarısı ve kolaylığı, öngörüyü nasıl genişleteceğine dair fikirlere yol açtı. Bununla ilgili çok güzel bir anket makalesi burada verilmektedir (mükemmel kapsamını çoğaltmayacağım). 1970'lerin sonlarında (bkz. JSTOR ) terimini oluşturan David Hinkley'e kadar izlenebilir . O çok yıllık " Pearson Binom Tahmini Sorun " olarak uyguladı . Temel mantığı özetleyeceğim.
yyy
Tahmini bir olasılık elde etmek için "sıkıntı" parametrelerinden kurtulmak için temel kurallar şunlardır:
- μ , σ
- Eğer bir parametre rastgele ise (örneğin, gözlemlenmemiş diğer veriler veya "rastgele etkiler"), o zaman onları birleştirirsiniz (tıpkı Bayesian yaklaşımında olduğu gibi).
Sabit ve rastgele bir parametre arasındaki fark, olasılık çıkarımına özgüdür, ancak Bayesian, sık ve olasılık çerçevelerinin çarpıştığı görünen karışık efekt modelleriyle bağlantısı vardır.
Umarım bu, "Bayesyen olmayan" tahmininin geniş alanı (ve bu konuda çıkarım) ile ilgili sorunuza cevap verdi. Köprüler değişebildiğinden, "Olabilirlik Durumunda: İstatistiksel Modelleme ve Olabilirliği Kullanarak Çıkarım" adlı kitap için de bir eklenti yapacağım. çıkarım ve tahmin.
Referanslar
- Tahmin Aralıkları: Parametrik olmayan yöntemler . Vikipedi. Erişim 9/13/2015.
- Bjornstad, Jan F. Tahmini Olabilirlik: Bir Gözden Geçirme. Devletçi. Sci. 5 (1990), no. 2, 242 - 254. doi: 10,1214 / sn / 1177012175.
http://projecteuclid.org/euclid.ss/1177012175 .
- David Hinkley. Tahmini Olabilirlik . İstatistiklerin Yıllıkları Vol. 4, 7 Temmuz, 1979, s. 718-728 Yayınlayan: Matematiksel İstatistik Enstitüsü Kararlı URL: http://www.jstor.org/stable/2958920
- Yudi Pawitan. Her Olasılıkta: İstatistiksel Modelleme ve Olabilirlik Kullanarak Çıkarım. Oxford Üniversitesi Yayınları; 1 baskı (30 Ağustos 2001). ISBN-10: 0198507658, ISBN-13: 978-0198507659 Özellikle Bölüm 5.5-5.9, 10 ve 16.