Neden yeterli bir istatistik, parametrenin herhangi bir tahminini hesaplamak için gerekli tüm bilgileri içerir?


16

İstatistik okumaya yeni başladım ve sezgisel bir yeterlilik anlayışı elde edemiyorum. Daha kesin olmak gerekirse, aşağıdaki iki paragrafın eşdeğer olduğunu nasıl göstereceğimizi anlayamıyorum:

Kabaca, bilinmeyen bir parametre conditioned üzerinde koşullandırılmış bağımsız özdeş dağıtılmış veri seti X verildiğinde, yeterli bir istatistik, değeri parametrenin herhangi bir tahminini hesaplamak için gereken tüm bilgileri içeren bir T (X) işlevidir.

T (X) istatistiği, T (X) istatistiği göz önüne alındığında, X verisinin koşullu olasılık dağılımı the parametresine bağlı değilse, parameter temel parametresi için yeterlidir.

(Alıntıları Yeterli istatistikten aldım )

İkinci ifadeyi anlasam da, belirli bir istatistiğin yeterli olup olmadığını göstermek için çarpanlara ayırma teoremini kullanabilsem de, böyle bir özelliğe sahip bir istatistiğin neden herhangi bir özelliği hesaplamak için gerekli tüm bilgileri içerdiğini anlayamıyorum. % s "parametresinin tahmini". Anlayışımı düzeltmek için yine de yardımcı olacak resmi bir kanıt aramıyorum, iki ifadenin neden eşdeğer olduğunu sezgisel bir şekilde açıklamak istiyorum.

Özetlemek gerekirse, sorularım: iki ifade neden eşdeğerdir? Birisi denkliği için sezgisel bir açıklama yapabilir mi?


1
Ana sezgisel fikir, bazen tüm örneği görmenize gerek olmamasıdır, çünkü örnekten gerekli olan tüm bilgileri özetleyen bir istatistik bulabilirsiniz. Örneğin, bir binom dağılımını ele alalım: modeliniz için bilmeniz gereken tek şey başarıların toplamıdır. Size tüm örneklenmiş değerler kümesini x = { 1 , 0 , 0 , 1 , 0 , 1 , göstermek yerine, yalnızca olduğunu söylersem değerli bir şey kaybetmezsiniz . . . } . inxi=cx={1,0,0,1,0,1,...}
mugen

Neden yeterli bir istatistiğe ihtiyacım olduğunu ve bir Bernoulli sürecindeki başarıların toplamının p için yeterli bir istatistik olduğunu nasıl göstereceğimi anlıyorum. Ne anlamıyorum ikinci paragrafta açıklanan gibi bir istatistik neden parametre herhangi bir tahmin hesaplamak için gerekli tüm bilgileri içeriyor olmasıdır.
gcoll

3
Açıkçası, ilk tırnak sadece yanlıştır. Veri kümesinin tamamından hesaplanabilecek ve sadece yeterli istatistiklerle hesaplanamayan birçok tahminci vardır. Teklifin "kabaca" başlamasının bir nedeni budur. Başka bir neden de "bilgi" nin nicel veya titiz bir tanımını vermemesidir. Bununla birlikte, önceki paragrafta çok daha doğru (ama yine de sezgisel) bir karakterizasyon verildiğinden, bu alıntıda uygun bağlamda
whuber

1
Maksimum olasılıkla bağlantısı vardır ve esasen maksimum olasılıkta ihtiyaç duyulan bilgilerdir
Kamster

1
Whuber ve @Kamster'ın yorumlarının ardından muhtemelen daha iyi bir anlayışım oldu. Yeterli bir istatistiğin, parametrenin herhangi bir tahminini hesaplamak için gerekli tüm bilgileri içerdiğini söylediğimizde, aslında maksimum olabilirlik tahmincisini hesaplamanın yeterli olduğu anlamına mı geliriz (ki bu, tüm yeterli istatistiklerin bir fonksiyonudur)? Bu doğrudur, meselenin tümü, whuber'ın önerdiği gibi, "bilgi" nin (olmayan) tanımıyla ilgiliydi ve soruma cevap verildi.
gcoll

Yanıtlar:


3

@Whuber ve @Kamster'ın yorumlarının ardından muhtemelen daha iyi anladım. Yeterli bir istatistiğin, parametrenin herhangi bir tahminini hesaplamak için gereken tüm bilgileri içerdiğini söylediğimizde, aslında kastettiğimiz, maksimum olabilirlik tahmincisini (tüm yeterli istatistiklerin bir fonksiyonu olan) hesaplamanın yeterli olduğudur.

Kendi sorumu yanıtladığım ve bu yüzden cevabın% 100 emin olmadığım göz önüne alındığında, bir geri bildirim alana kadar doğru olarak işaretlemeyeceğim. Yanlış / kesin olmayan / vb. Olduğumu düşünüyorsanız lütfen herhangi bir yorum ve aşağı oy ekleyin ...

(Bu SE görgü kuralları ile uyumlu değilse, bana bildirin, bu benim ilk sorum olmak, herhangi bir kuralı ihlal edersem merhametinize yalvarıyorum)


1

Yeterlilik üzerine çalışırken, sorunuza rastladım çünkü aynı zamanda topladığım şeyden gelen bu sezgiyi de anlamak istedim (ne düşündüğünüzü söyleyin, herhangi bir hata yaptım, vb.).

Let ortalama bir Poisson dağılımından rasgele örneklem olmak İçeride ISTV melerin RWMAIWi'nin > 0 .X1,,Xnθ>0

T(X)=i=1nXiθX1,,XnT(X)θθ

A X1,,Xni.i.dPoisson(4)n=400

n<-400
theta<-4
set.seed(1234)
x<-rpois(n,theta)
y=sum(x)

freq.x<-table(x) # We will use this latter on
rel.freq.x<-freq.x/sum(freq.x)

AB

x1,,xni=1nxi=y=4068

i=1nxi=y=4068Bθ

Bunun anlamı hakkında biraz niyet kazanmak için aşağıdakileri yapalım (Hogg & Mckean & Craig'in "Matematiksel İstatistiklere Giriş", 7. baskı, alıştırma 7.1.9'dan alınmıştır):

Bz1,z2,,znxZ1,Z2,Znz1,z2,,znzi=y

θz1eθz1!θz2eθz2!θzneθzn!nθyenθy!=y!z1!z2!zn!(1n)z1(1n)z2(1n)zn

Y=Zinθyn1/nByz1,...,zn

Alıştırma bunu belirtir. Öyleyse tam olarak şunu yapalım:

# Fake observations from multinomial experiment
prob<-rep(1/n,n)
set.seed(1234)
z<-as.numeric(t(rmultinom(y,n=c(1:n),prob)))
y.fake<-sum(z) # y and y.fake must be equal
freq.z<-table(z)
rel.freq.z<-freq.z/sum(freq.z)

Zk=0,1,...,13

# Verifying distributions
k<-13
plot(x=c(0:k),y=dpois(c(0:k), lambda=theta, log = FALSE),t="o",ylab="Probability",xlab="k",
     xlim=c(0,k),ylim=c(0,max(c(rel.freq.x,rel.freq.z))))
lines(rel.freq.z,t="o",col="green",pch=4)
legend(8,0.2, legend=c("Real Poisson","Random Z given y"), 
       col = c("black","green"),pch=c(1,4))

resim açıklamasını buraya girin

θY=ΣXben Poisson (4) dağılımına çok benzeyen bir "dağıtım" elde edebildik ( n iki eğri daha benzer hale gelir).

Şimdi, X ve Z|y:

plot(rel.freq.x,t="o",pch=16,col="red",ylab="Relative Frequency",xlab="k",
     ylim=c(0,max(c(rel.freq.x,rel.freq.z))))
lines(rel.freq.z,t="o",col="green",pch=4)
legend(7,0.2, legend=c("Random X","Random Z given y"), col = c("red","green"),pch=c(16,4))

enter image description here

Bunların da oldukça benzer olduğunu görüyoruz (beklendiği gibi)

Dolayısıyla, "istatistiksel bir karar vermek amacıyla, bireysel rastgele değişkenleri göz ardı edebiliriz. Xben ve kararı tamamen Y=X1+X2++Xn"(Ash, R." İstatistiksel Çıkarım: Kısa bir kurs ", sayfa 59).


0

Yardımcı olabilecek başka bir bakış açısı sunayım. Bu aynı zamanda niteldir, ancak Markov özelliği olarak bilinen Bilgi Teorisinde özellikle önemli olan titiz bir versiyonu vardır.

Başlangıçta iki nesnemiz var, veriler (Rastgele Değişkenden geliyor, X olarak adlandırın) ve parametre, θ(tahmincisi hakkında konuştuğumuzdan dolaylı olarak kabul edilen başka bir rv). Bu ikisinin bağımlı olduğu varsayılır (aksi takdirde birini diğerinden tahmin etmeye çalışmanın bir anlamı yoktur). Şimdi, üçüncü nesne oyuna giriyor, Yeterli İstatistik, T. T'yi tahmin etmek için yeterli olduğunu söylediğimizde sezgisel fikirθ Gerçekten, eğer T'yi (yani T üzerinde koşullandırılmış) bilirsek, X hiçbir ek bilgi sağlamaz, yani X ve θbağımsızdır. Başka bir deyişle, X bilgisi, tahminine göre T bilgisine eşdeğerdir.θendişelendi. Olasılıklarda tüm belirsizliklerin yakalandığı ve dolayısıyla (koşullu) olasılıklar bağımsız olduğunda (örneğin koşullu yoğunluklar çarpanlara ayrıldığında) “herhangi bir tahminin” bulunduğunu unutmayın.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.