Olasılık
Olasılık teorisindeki yaygın problemler, belirli bir model verilen ve ilgili parametreler (diyelim ki onlara diyelim) gözlemlerinin olasılığını ifade eder . Örneğin, kart oyunlarında veya zar oyunlarında belirli durumlar için olasılıklar genellikle çok basittir.x1,x2,...,xnθ
Bununla birlikte, birçok pratik durumda, ters bir durumla ilgileniyoruz ( çıkarımsal istatistikler ). Yani: gözlem verildi ve şimdi model bilinmiyor veya en azından belirli parametreleri bilmiyoruz .x1,x2,...,xkθ
Sorunların bu tür sık sık parametrelerin olasılığı denilen bir terim, bakın , bir parametre özgü iman bir orandır verilen gözlemler . Bu terim, bir model parametresinin varsayımsal olarak doğru olacağını varsayarak gözlemlerinin olasılığı ile orantılı olarak ifade edilir . L(θ)θx1,x2,..xkx1,x2,..xkθL(θ,x1,x2,..xk)∝probability observations x1,x2,..xk given θ
Belirli bir parametre değeri için belirli bir gözlem daha olasıdır (diğer parametre değerleriyle olasılığa göre), gözlem bu belirli parametreyi (veya bu parametreyi varsayan teori / hipotez) o kadar çok destekler . (Göreceli) yüksek olasılık, bu parametre değerine olan inancımızı güçlendirecektir ( bu konuda söylenecek çok daha felsefi vardır ).θx1,x2,..xn
Alman tank sorununun olasılığı
Şimdi Alman tank sorunu için bir dizi örnek için olasılık fonksiyonu :x1,x2,..xk
L(θ,x1,x2,..xk)=Pr(x1,x2,..xk,θ)={0(θk)−1if max(x1,x2,..xk)>θif max(x1,x2,..xk)≤θ,
{1, 2, 10} örneklerini veya {8, 9, 10} örneklerini gözlemleyip gözlemlemediğiniz , numuneler parametresiyle aynı dağılımdan düşünüldüğünde önemli olmamalıdır . Her iki örnek de olasılığı ile eşit derecede olasıdır ve muhtemelen bir örnek parametresi hakkında diğer örnekten daha fazla bilgi vermez .θ(θ3)−1θ
Yüksek değerler {8, 9, 10} size daha yüksek olması gerektiğini düşündürüyor / inanıyor olabilir . Ancak, bu sadece {10} değeridir. Bu gerçekten size olasılığı hakkında ilgili bilgi verir (10 değeri on veya daha yüksek olacağını söyler , diğer 8 ve 9 değerleri bu bilgilere hiçbir katkıda bulunmaz. ).θθθ
Fisher Neyman çarpanlara ayırma teoremi
Bu teorem size belirli bir istatistik (yani, ortalama, medyan veya Alman tank probleminde olduğu gibi gözlemlerin bazı işlevleri) yeterli olduğunda (tüm bilgileri içerir) yeterli olduğunu söyler Eğer olabilirlik işlevinde, diğer gözlemlere bağlıdır terimler, çarpanlarına olabilir bu faktör hem bağlı değildir, öyle ki, parametre ve (ve olasılık fonksiyonunun verileri varsayımsal parametre değerleri ile ilişkilendiren kısmı sadece istatistiğe bağlıdır, ancak verilerin / gözlemlerin tamamına bağlı değildir).T(x1,x2,…,xk)x1,x2,…,xkθx1,x2,…,xk
Alman tank sorununun durumu basit. Sen Olabilirlik için tüm ifade yukarıda zaten sadece istatistik bağlı olduğunu yukarıda görebilirsiniz ve değerlerin geri kalanı önemli değildir.max(x1,x2,..xk)x1,x2,..xk
Örnek olarak küçük bir oyun
Aşağıdaki oyunu tekrar tekrar oynadığımızı varsayalım: kendisi rastgele bir değişkendir ve 100 veya 110 eşit olasılıkla çizilir. Sonra örneği .θx1,x2,...,xk
Biz tahmin için bir strateji seçmek isteyen gözlenen dayalı sağ tahminim var bizim olasılığını maksimize .θx1,x2,...,xkθ
Örnekte sayılardan biri> 100 değilse uygun strateji 100'ü seçmek olacaktır.
değerlerinin yüze yakın (ancak tam olarak yüzün üzerinde değil) tüm yüksek değerler olma eğiliminde olduğunda 110 parametre değerini seçmeye cazip gelebiliriz , ancak bu yanlış olur. Gerçek parametre değeri 110 olduğunda 100 olduğunda böyle bir gözlem olasılığı daha büyük olacaktır. Bu nedenle, eğer böyle bir durumda, parametre değeri olarak 100'ü tahmin edersek, hata yapma olasılığımız daha düşük olacaktır (çünkü yüze yakın ancak yine de altında olan bu yüksek değerlere sahip durum, gerçek değerin 110 olması yerine gerçek değerin 100 olması durumunda daha sık görülür).x1,x2,...,xk