Alman Tank Problemine Çözüm


10

Çözüm bu resmi bir matematiksel kanıtı var mıdır Alman tank Problem bir işlevidir sadece parametreleri k (gözlemlenen örnek sayısı) ve m (gözlenen örnekleri arasındaki maksimum değer)? Başka bir deyişle, çözümün maksimum değerin yanı sıra diğer örnek değerlerden bağımsız olduğunu kanıtlayabilir mi?


3
Ne sen sorma örnek maksimum olduğunu göstermek için nasıl yeterli parametre için 1'den üst kesikli düzgün dağılımının bağlı belirtmeye . θθ
Scortchi - Monica'yı eski durumuna döndürün

2
Fisher Neyman- ayrıştırma teoremi , olasılık olabilirlik fonksiyonu görülen örnekler (maksimum özetlenebilir ) parametreleri verilen (tank sayısı) tamamen açısından yazılabilir ve Bu bir cevap olur mu? kmnkm
Pr(M=m|n,k)={0if m>n(m1k1)(nk)if mn,
Sextus Empiricus

@Scortchi doğru, benim için daha net bir şekilde yeniden ifade ettiğiniz için teşekkür ederim.
Bogdan Alexandru

@MartijnWeterings no; esasen ben örnek maksimum çözümü için yeterli olduğunu belgeleyen en (Scortchi yorumuna yukarıda alıntı) soruyorum olmadan aslında çözüm hesaplama.
Bogdan Alexandru

Yani kanıt olarak Fisher Neyman çarpanlara ayırma teoremini aramıyor musunuz?
Sextus Empiricus

Yanıtlar:


15

Olasılık

Olasılık teorisindeki yaygın problemler, belirli bir model verilen ve ilgili parametreler (diyelim ki onlara diyelim) gözlemlerinin olasılığını ifade eder . Örneğin, kart oyunlarında veya zar oyunlarında belirli durumlar için olasılıklar genellikle çok basittir.x1,x2,...,xnθ

Bununla birlikte, birçok pratik durumda, ters bir durumla ilgileniyoruz ( çıkarımsal istatistikler ). Yani: gözlem verildi ve şimdi model bilinmiyor veya en azından belirli parametreleri bilmiyoruz .x1,x2,...,xkθ

Sorunların bu tür sık sık parametrelerin olasılığı denilen bir terim, bakın , bir parametre özgü iman bir orandır verilen gözlemler . Bu terim, bir model parametresinin varsayımsal olarak doğru olacağını varsayarak gözlemlerinin olasılığı ile orantılı olarak ifade edilir . L(θ)θx1,x2,..xkx1,x2,..xkθ

L(θ,x1,x2,..xk)probability observations x1,x2,..xk given θ 

Belirli bir parametre değeri için belirli bir gözlem daha olasıdır (diğer parametre değerleriyle olasılığa göre), gözlem bu belirli parametreyi (veya bu parametreyi varsayan teori / hipotez) o kadar çok destekler . (Göreceli) yüksek olasılık, bu parametre değerine olan inancımızı güçlendirecektir ( bu konuda söylenecek çok daha felsefi vardır ).θx1,x2,..xn


Alman tank sorununun olasılığı

Şimdi Alman tank sorunu için bir dizi örnek için olasılık fonksiyonu :x1,x2,..xk

L(θ,x1,x2,..xk)=Pr(x1,x2,..xk,θ)={0if max(x1,x2,..xk)>θ(θk)1if max(x1,x2,..xk)θ,

{1, 2, 10} örneklerini veya {8, 9, 10} örneklerini gözlemleyip gözlemlemediğiniz , numuneler parametresiyle aynı dağılımdan düşünüldüğünde önemli olmamalıdır . Her iki örnek de olasılığı ile eşit derecede olasıdır ve muhtemelen bir örnek parametresi hakkında diğer örnekten daha fazla bilgi vermez .θ(θ3)1θ

Yüksek değerler {8, 9, 10} size daha yüksek olması gerektiğini düşündürüyor / inanıyor olabilir . Ancak, bu sadece {10} değeridir. Bu gerçekten size olasılığı hakkında ilgili bilgi verir (10 değeri on veya daha yüksek olacağını söyler , diğer 8 ve 9 değerleri bu bilgilere hiçbir katkıda bulunmaz. ).θθθ


Fisher Neyman çarpanlara ayırma teoremi

Bu teorem size belirli bir istatistik (yani, ortalama, medyan veya Alman tank probleminde olduğu gibi gözlemlerin bazı işlevleri) yeterli olduğunda (tüm bilgileri içerir) yeterli olduğunu söyler Eğer olabilirlik işlevinde, diğer gözlemlere bağlıdır terimler, çarpanlarına olabilir bu faktör hem bağlı değildir, öyle ki, parametre ve (ve olasılık fonksiyonunun verileri varsayımsal parametre değerleri ile ilişkilendiren kısmı sadece istatistiğe bağlıdır, ancak verilerin / gözlemlerin tamamına bağlı değildir).T(x1,x2,,xk)x1,x2,,xkθx1,x2,,xk

Alman tank sorununun durumu basit. Sen Olabilirlik için tüm ifade yukarıda zaten sadece istatistik bağlı olduğunu yukarıda görebilirsiniz ve değerlerin geri kalanı önemli değildir.max(x1,x2,..xk)x1,x2,..xk


Örnek olarak küçük bir oyun

Aşağıdaki oyunu tekrar tekrar oynadığımızı varsayalım: kendisi rastgele bir değişkendir ve 100 veya 110 eşit olasılıkla çizilir. Sonra örneği .θx1,x2,...,xk

Biz tahmin için bir strateji seçmek isteyen gözlenen dayalı sağ tahminim var bizim olasılığını maksimize .θx1,x2,...,xkθ

Örnekte sayılardan biri> 100 değilse uygun strateji 100'ü seçmek olacaktır.

değerlerinin yüze yakın (ancak tam olarak yüzün üzerinde değil) tüm yüksek değerler olma eğiliminde olduğunda 110 parametre değerini seçmeye cazip gelebiliriz , ancak bu yanlış olur. Gerçek parametre değeri 110 olduğunda 100 olduğunda böyle bir gözlem olasılığı daha büyük olacaktır. Bu nedenle, eğer böyle bir durumda, parametre değeri olarak 100'ü tahmin edersek, hata yapma olasılığımız daha düşük olacaktır (çünkü yüze yakın ancak yine de altında olan bu yüksek değerlere sahip durum, gerçek değerin 110 olması yerine gerçek değerin 100 olması durumunda daha sık görülür).x1,x2,...,xk


Harika, tam olarak ihtiyacım olan şey! Son parantezinizle ilgili yalnızca bir yorum: "yüze yakın bu yüksek değerler daha sık gerçekleşiyor ..." diyorsunuz, bunun neden doğru olduğunu anlıyorum, ancak açıklığa kavuşturmak için: 1 ile 100 arasında herhangi bir değerin ortaya çıkma olasılığı daha yüksektir parametre 100 ise (aslında 1-100'deki her sayı için olasılık 1 / parametredir).
Bogdan Alexandru

Ayrıca, şimdi gönderime ilk yorumunuz mantıklı - bu kavramları nasıl uygulayacağımı bilseydim, yorumunuz tam olarak kanıtı elde etmek için ihtiyacım olan ipucu olurdu. Tekrar teşekkürler!
Bogdan Alexandru

@BogdanAlexandru haklısın; 1-100 arasındaki herhangi bir değer için doğrudur. Bu mantık dışı bir fikirdir, daha yüksek gözlenen değerlerin, bazı parametre değeri için gözlenen düşük değerlerden bir şekilde daha fazla kanıt olduğunu düşünmeye meyledik, ancak herhangi bir sayı için eşit derecede olasıdır ve bu nedenle model parametresi ( Gözlemlediğimiz maksimum değer hariç, ama yaptığım oyunda bile iki değer arasında sadece bir seçim yapıyorum ki, maksimum değer bile, yüz sınır hariç, daha yüksek veya daha düşük olduğunda daha fazla bilgi sağlamaz).
Sextus Empiricus

İlk yorumum çok ağır olabilirdi, ama sadece ne tür bir cevabın gerekli olduğunu görüyordum. Özellikle 'kanıt' terimini biraz güçlü buluyorum ve sadece çarpanlara ayırma teoremini (bu teoremi bilmediğinizde evet tarafından cevaplanan bir soru olurdu) mı arıyorsunuz yoksa daha belirsiz bir şey mi arıyorsunuz ve felsefi, hatta zorlu istatistik / olasılık kavramları gibi ve farklı bir tür "kanıt" aramak için böyle bir teoremin ötesine geçmek gibi.
Sextus Empiricus

O zaman niyetlerimi iyi okuyun! Tekrar teşekkürler.
Bogdan Alexandru

0

"Sorunun" kesin bir formülasyonunu sunmadınız, bu yüzden neyin kanıtlanmasını istediğiniz tam olarak belli değil. Bayesci bir perspektiften bakıldığında, arka olasılık tüm verilere bağlıdır. Bununla birlikte, belirli bir seri numarasının her gözlemi bu numarayı en çok destekleyecektir. Yani, herhangi bir gözlem verilir , posterior ve hipotez "tank gerçek sayıdır için daha büyük olacaktır önce arasındaki olasılık oranı o olacak daha" "tank gerçek sayıdır [sayısı dışında ]". Bu nedenle, önceden üniforma ile başlarsak, o gözlemi gördükten sonra en yüksek posteriora sahip olacaktır.nnnn

Veri noktası ve hipotezlerine sahip olduğumuz bir durumu düşünün . Açıkçası, için posterior sıfırdır. Ve için posteriorlarımız öncekinden daha büyük olacak. Bunun nedeni Bayesci akıl yürütmede kanıt bulunmamasının yokluğun kanıtı olmasıdır . Olasılığımızı azaltabilecek bir gözlem yapabileceğimiz ancak fırsatımızın olmadığı her fırsatımız olduğunda olasılık artar. Biz bu yana olabilir gördük bizim için posteriors set olurdu, sıfıra biz görmedik gerçeği biz bizim posteriors artması gerektiği anlamına gelir13N=10,13,15N=10N=13,1516N=13,15N=13,15 . Ancak, sayı ne kadar küçük olursa, o sayıyı hariç tutabilecek daha fazla sayı göreceğimizi unutmayın. İçin , biz gördükten sonra bu hipotezi reddedilir olurdu . Ancak , hipotezi reddetmek için en az ihtiyacımız olurdu . Hipotezi yana daha çürütülebilir olan , gerçeği biz o yoktu tahrif için daha kanıtıdır tahrif değil daha için kanıtıdır .N=1314,15,16,...N=1516N=13N=15N=13N=13N=15N=15

Bu nedenle, her veri noktası gördüğümüzde, altındaki her şeyin posteriorunu sıfıra ayarlar ve diğer her şeyin posteriorunu artırır, daha küçük sayılar en büyük artışı elde eder. Bu nedenle, toplamda en büyük artışı alan sayı, posterior sıfıra ayarlanmamış en küçük sayı, yani gözlemlerin maksimum değeri olacaktır.

Maksimumdan küçük sayılar, maksimumun ne kadar büyüdüğünü etkiler , ancak maksimum büyüklük artışının genel eğilimini etkilemez. daha önce gördüğümüz yukarıdaki örneği düşünün . Bir sonraki sayı , bunun ne gibi bir etkisi olur? fazla yardımcı oluyor , ancak her iki sayı da zaten reddedildi, bu yüzden ilgili değil. Bu yardımcı oluyor den fazla , ama zaten fazla yardım etti edilmiş çoğu yardım etti edildiği sayı etkilemeyecek şekilde.1355613151315


Bu örnek duruma çok bağlıdır ve ifadeler genel değildir. Örneğin, öncekiler 13 için% 50 ve 15 için% 50 ise, 13 gözlemi, "N = 13, 15 için posterlerimiz öncekinden daha büyük olacaktır" Gözlemler, öncekine göre posterioru azaltabilir. .
Sextus Empiricus

Ayrıca, daha fazla sayıda sayının gözlemlenmesi çıkarımı değiştirebilir. Durumda "Gördüğümüz sonraki numara 5 ise ..." Eğer tüm sayıları örnek zaman sonra arka hala değişim, sayılar zaten olmuştur bile 'yardım etti söner' ek sayılar ( 'Bu "yardım Örn artırabilir 1,2, ... 12, 13 o zaman bu posterioru 13'e göre daha fazla artıracaktır 13)
Sextus Empiricus
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.