Neden normal dağılımın


20

Normal bir dağılım Monte Carlo simülasyonu yaptığımda ilk kez bana bir şok geldi ve hepsi sadece örnek büyüklüğüne sahip numuneden standart sapmanın ortalamasının çok daha az olduğunu keşfetti yani, defadan daha fazla, popülasyonu oluşturmak için kullanılan . Bununla birlikte, bu nadiren hatırlanırsa iyi bilinir ve bir çeşit biliyordum, ya da bir simülasyon yapmazdım. İşte bir simülasyon.100100n=22πσ

100, , ve kullanarak % 95 güven aralığını tahmin etmek için bir örnek .N(0,1)n=2SDE(sn=2)=π2SD

 RAND()   RAND()    Calc    Calc    
 N(0,1)   N(0,1)    SD      E(s)    
-1.1171  -0.0627    0.7455  0.9344  
 1.7278  -0.8016    1.7886  2.2417  
 1.3705  -1.3710    1.9385  2.4295  
 1.5648  -0.7156    1.6125  2.0209  
 1.2379   0.4896    0.5291  0.6632  
-1.8354   1.0531    2.0425  2.5599  
 1.0320  -0.3531    0.9794  1.2275  
 1.2021  -0.3631    1.1067  1.3871  
 1.3201  -1.1058    1.7154  2.1499  
-0.4946  -1.1428    0.4583  0.5744  
 0.9504  -1.0300    1.4003  1.7551  
-1.6001   0.5811    1.5423  1.9330  
-0.5153   0.8008    0.9306  1.1663  
-0.7106  -0.5577    0.1081  0.1354  
 0.1864   0.2581    0.0507  0.0635  
-0.8702  -0.1520    0.5078  0.6365  
-0.3862   0.4528    0.5933  0.7436  
-0.8531   0.1371    0.7002  0.8775  
-0.8786   0.2086    0.7687  0.9635  
 0.6431   0.7323    0.0631  0.0791  
 1.0368   0.3354    0.4959  0.6216  
-1.0619  -1.2663    0.1445  0.1811  
 0.0600  -0.2569    0.2241  0.2808  
-0.6840  -0.4787    0.1452  0.1820  
 0.2507   0.6593    0.2889  0.3620  
 0.1328  -0.1339    0.1886  0.2364  
-0.2118  -0.0100    0.1427  0.1788  
-0.7496  -1.1437    0.2786  0.3492  
 0.9017   0.0022    0.6361  0.7972  
 0.5560   0.8943    0.2393  0.2999  
-0.1483  -1.1324    0.6959  0.8721  
-1.3194  -0.3915    0.6562  0.8224  
-0.8098  -2.0478    0.8754  1.0971  
-0.3052  -1.1937    0.6282  0.7873  
 0.5170  -0.6323    0.8127  1.0186  
 0.6333  -1.3720    1.4180  1.7772  
-1.5503   0.7194    1.6049  2.0115  
 1.8986  -0.7427    1.8677  2.3408  
 2.3656  -0.3820    1.9428  2.4350  
-1.4987   0.4368    1.3686  1.7153  
-0.5064   1.3950    1.3444  1.6850  
 1.2508   0.6081    0.4545  0.5696  
-0.1696  -0.5459    0.2661  0.3335  
-0.3834  -0.8872    0.3562  0.4465  
 0.0300  -0.8531    0.6244  0.7826  
 0.4210   0.3356    0.0604  0.0757  
 0.0165   2.0690    1.4514  1.8190  
-0.2689   1.5595    1.2929  1.6204  
 1.3385   0.5087    0.5868  0.7354  
 1.1067   0.3987    0.5006  0.6275  
 2.0015  -0.6360    1.8650  2.3374  
-0.4504   0.6166    0.7545  0.9456  
 0.3197  -0.6227    0.6664  0.8352  
-1.2794  -0.9927    0.2027  0.2541  
 1.6603  -0.0543    1.2124  1.5195  
 0.9649  -1.2625    1.5750  1.9739  
-0.3380  -0.2459    0.0652  0.0817  
-0.8612   2.1456    2.1261  2.6647  
 0.4976  -1.0538    1.0970  1.3749  
-0.2007  -1.3870    0.8388  1.0513  
-0.9597   0.6327    1.1260  1.4112  
-2.6118  -0.1505    1.7404  2.1813  
 0.7155  -0.1909    0.6409  0.8033  
 0.0548  -0.2159    0.1914  0.2399  
-0.2775   0.4864    0.5402  0.6770  
-1.2364  -0.0736    0.8222  1.0305  
-0.8868  -0.6960    0.1349  0.1691  
 1.2804  -0.2276    1.0664  1.3365  
 0.5560  -0.9552    1.0686  1.3393  
 0.4643  -0.6173    0.7648  0.9585  
 0.4884  -0.6474    0.8031  1.0066  
 1.3860   0.5479    0.5926  0.7427  
-0.9313   0.5375    1.0386  1.3018  
-0.3466  -0.3809    0.0243  0.0304  
 0.7211  -0.1546    0.6192  0.7760  
-1.4551  -0.1350    0.9334  1.1699  
 0.0673   0.4291    0.2559  0.3207  
 0.3190  -0.1510    0.3323  0.4165  
-1.6514  -0.3824    0.8973  1.1246  
-1.0128  -1.5745    0.3972  0.4978  
-1.2337  -0.7164    0.3658  0.4585  
-1.7677  -1.9776    0.1484  0.1860  
-0.9519  -0.1155    0.5914  0.7412  
 1.1165  -0.6071    1.2188  1.5275  
-1.7772   0.7592    1.7935  2.2478  
 0.1343  -0.0458    0.1273  0.1596  
 0.2270   0.9698    0.5253  0.6583  
-0.1697  -0.5589    0.2752  0.3450  
 2.1011   0.2483    1.3101  1.6420  
-0.0374   0.2988    0.2377  0.2980  
-0.4209   0.5742    0.7037  0.8819  
 1.6728  -0.2046    1.3275  1.6638  
 1.4985  -1.6225    2.2069  2.7659  
 0.5342  -0.5074    0.7365  0.9231  
 0.7119   0.8128    0.0713  0.0894  
 1.0165  -1.2300    1.5885  1.9909  
-0.2646  -0.5301    0.1878  0.2353  
-1.1488  -0.2888    0.6081  0.7621  
-0.4225   0.8703    0.9141  1.1457  
 0.7990  -1.1515    1.3792  1.7286  

 0.0344  -0.1892    0.8188  1.0263  mean E(.)
                    SD pred E(s) pred   
-1.9600  -1.9600   -1.6049 -2.0114    2.5%  theor, est
 1.9600   1.9600    1.6049  2.0114   97.5%  theor, est
                    0.3551 -0.0515    2.5% err
                   -0.3551  0.0515   97.5% err

Genel toplamları görmek için kaydırıcıyı aşağı sürükleyin. Şimdi, ortalama sıfır civarında% 95 güven aralığı hesaplamak için sıradan SD tahmincisini kullandım ve 0.3551 standart sapma birimi tarafından kapandı. E (s) tahmincisi yalnızca 0,0515 standart sapma birimi tarafından kapatılmıştır. Standart sapmayı, ortalamanın standart hatasını veya t istatistiklerini tahmin ediyorsanız, bir sorun olabilir.

Akıl yürütmem şu şekildeydi, iki değerin popülasyon ortalaması, μ , göre herhangi bir yerde olabilir x1ve kesinlikle x 1 + x 2'de yer almazx1+x22 , aşağıdaki gibi mutlak minimum olası toplam kare yapar, böyleceaşağıdaki gibiσbüyük ölçüdehafife alıyoruz

izin wlog x2x1=d , sonra Σi=1n(xix¯)2 olduğu , mümkün olan en az sonuç.2(d2)2=d22

Bu, standart sapmanın şu şekilde hesaplandığı anlamına gelir:

SD=Σi=1n(xix¯)2n1 ,

popülasyon standart sapmasının ( ) önyargılı bir tahmincisidir . Bu formülde, serbestlik derecesini 1 ve böldüğümüz anlamına gelir , yani, bazı düzeltmeler yaparız, ancak bu sadece asimptotik olarak doğrudur ve daha iyi bir kural olacaktır . Bizim için örnek Formül bize verecektir gibi istatistiksel olarak inanılmaz minimum değer , daha iyi bir beklenen değer ( )n , n - 1 , n - 3 / 2 x 2 - X 1 = d SD S D = dσnn1n3/2x2x1=dSDμˉxsE(s)=SD=d20.707dμx¯sn<10SDσn25n<25, n=1000E(s)=π2d2=π2d0.886d. Her zamanki hesaplama için, , ler , yaklaşık olduğunda sadece% 1 az tahminine yaklaşan küçük sayı yanlılığı olarak adlandırılan çok önemli bir az tahminden muzdariptir . Birçok biyolojik deneyde , bu gerçekten bir konudur. İçin , hata, yaklaşık 100.000 25 parçadır. Genel olarak, az sayıda önyargı düzeltmesi , normal dağılımın popülasyon standart sapmasının tarafsız tahmincisininn<10SDσn25n<25n=1000

E(s)=Γ(n12)Γ(n2)Σi=1n(xix¯)22>SD=Σi=1n(xix¯)2n1.

Gönderen Wikipedia birini lisans Creative Commons altında SD küçümsenmesi bir konusu varσ <a title = "Rb88guy (Kendi çalışması) tarafından [CC BY-SA 3.0 (http://creativecommons.org/licenses/by-sa/3.0) veya GFDL (http://www.gnu.org/copyleft/fdl .html)], Wikimedia Commons "href =" https://commons.wikimedia.org/wiki/File%3AStddevc4factor.jpg "> <img width =" 512 "alt =" Stddevc4factor "src =" https: // upload.wikimedia.org/wikipedia/commons/thumb/e/ee/Stddevc4factor.jpg/512px-Stddevc4factor.jpg "/> <a

SD, popülasyon standart sapmasının önyargılı bir tahmincisi olduğu için, olarak MVUE olduğunu söylemekten mutluluk duymadıkça , popülasyon standart sapmasının minimum varyans yansız tahmincisi MVUE olamaz.n

Normal olmayan dağılımlar ile ilgili ve yaklaşık tarafsız okumak bu .SD

Şimdi Q1 sorusu geliyor

Kanıtlanmış edilebilir olduğu , yukarıda MVUE için numune büyüklüğü normal dağılımın , burada birden büyük pozitif bir tamsayı olduğu?σ n nE(s)σnn

İpucu: (Ama cevap değil) bkz . Örnek standart sapmanın normal dağılımdan standart sapmasını nasıl bulabilirim? .

Sonraki soru, 2. Çeyrek

Birisi bana niçin kullandığımızı açıkça önyargılı ve yanıltıcı olduğu için açıklar mı? Yani, neden her şey için kullanmıyorsunuz ? E ( ler )SDE(s)Ek olarak, aşağıdaki cevaplarda varyansın tarafsız olduğu açıktır, ancak kare kökü önyargılıdır. Cevapların tarafsız standart sapmanın ne zaman kullanılması gerektiği sorusunu ele almasını rica ediyorum.

Sonuç olarak, kısmi bir cevap, yukarıdaki simülasyondaki yanlılığı önlemek için, SD değerlerinden ziyade varyansların ortalaması alınmış olabilir. Bunun etkisini görmek için, yukarıdaki SD sütununu kare yaparsak ve bu değerleri ortalama yaparsak, kare kökü 0.9996915 standart sapmasının bir tahmini olan ve hatası% 2.5 kuyruk için sadece 0.0006 olan 0.9994 elde ederiz. % 95 kuyruk için -0.0006. Bunun varyansların toplanır olması nedeniyle, bunların ortalamasının düşük bir hata prosedürü olduğuna dikkat edin. Bununla birlikte, standart sapmalar önyargılıdır ve varyansları aracı olarak kullanma lüksüne sahip olmadığımız durumlarda, hala küçük sayı düzeltmesine ihtiyacımız vardır. Varyansı aracı olarak kullansak bile, bu durumdan=100, küçük numune düzeltmesi, standart sapmanın tarafsız bir tahmini olarak 1.002219148 vermek için 0.9996915 tarafsız varyansın kare kökünün 1.002528401 ile çarpılmasını önerir. Yani, evet, küçük sayı düzeltmesini kullanarak erteleyebiliriz, bu yüzden tamamen göz ardı etmeli miyiz?

Buradaki soru, kullanımını görmezden gelmek yerine ne zaman küçük sayı düzeltmesi kullanmamız gerektiğidir ve ağırlıklı olarak kullanımından kaçındık.

Başka bir örnek, bir hataya sahip doğrusal bir eğilim oluşturmak için alandaki minimum nokta sayısı üçtür. Bu noktaları sıradan en küçük karelere sığdırırsak, bu tür birçok uyumun sonucu, doğrusallık yoksa katlanmış normal artık kalıbı ve doğrusallık varsa yarı normaldir. Yarı normal durumda dağılım ortalamamız az sayıda düzeltme gerektirir. Aynı hileyi 4 veya daha fazla puanla denersek, dağılım genellikle normal ilişkili veya karakterize edilmesi kolay olmaz. Bu 3 noktalı sonuçları bir şekilde birleştirmek için varyansı kullanabilir miyiz? Belki de değil. Ancak, mesafeler ve vektörler açısından problemleri anlamak daha kolaydır.


Yorumlar uzun tartışmalar için değildir; bu sohbet sohbete taşındı .
whuber

3
S1: Lehmann-Scheffe teoremine bakın.
Scortchi - Monica'yı eski durumuna döndürün

1
Bir tahmin edicinin sıfır olmayan yanlılığı mutlaka bir dezavantaj değildir. Örneğin, kare kaybı altında doğru bir tahmin ediciye sahip olmak istiyorsak, varyansı yeterince büyük miktarda azalttığı sürece önyargı oluşturmaya hazırız. Bu nedenle (önyargılı) düzenli tahminciler, örneğin doğrusal bir regresyon modelinde (tarafsız) OLS tahmincisinden daha iyi performans gösterebilir.
Richard Hardy

3
@ Birçok terim farklı uygulama alanlarında farklı kullanılır. Bir istatistik grubuna gönderiyorsanız ve "önyargı" gibi bir jargon terimi kullanıyorsanız, doğal olarak, istatistiğe özgü terimin belirli anlamlarını kullandığınız varsayılır. Eğer ortalama Eğer şey başka, ya kullanım için farklı bir terim önemlidir ya ilk kullanımda süreli hakla ortalama ne açıkça tanımlamak için.
Glen_b-Monica

2
"önyargı" kesinlikle bir jargon terimidir - başkalarının anlaması zor olan bir meslek ya da grup tarafından kullanılan özel kelimeler ya da ifadeler "önyargı" nın ne olduğunu hemen hemen gösterir. Çünkü bu terimler, uygulama alanlarında (matematiksel tanımlar da dahil olmak üzere) onları jargon terimleri yapan kesin, özel tanımlara sahiptir.
Glen_b-Monica

Yanıtlar:


34

Daha kısıtlı soru için

Neden tipik bir sapmalı standart sapma formülü kullanılır?

basit cevap

Çünkü ilişkili varyans tahmincisi tarafsızdır. Gerçek bir matematiksel / istatistiksel gerekçe yoktur.

birçok durumda doğru olabilir.

Ancak, bu her zaman böyle değildir. Bu konuların anlaşılması gereken en az iki önemli yönü vardır.

İlk olarak, örnek varyasyonu sadece Gauss rasgele değişkenleri için önemli değildir. Sonlu varyans ile herhangi bir dağılım için tarafsızdır (aşağıda tartıştığım gibi, orijinal cevabımda). Soru için tarafsız olmadığını ve Gauss rasgele değişkeni için tarafsız olan bir alternatifi önermektedir. Bununla birlikte, varyansın aksine, standart sapma için "dağılımsız" bir tarafsız tahmin ediciye sahip olmanın mümkün olmadığını belirtmek önemlidir (* aşağıdaki nota bakınız).σ 2 s σs2σ2sσ

İkincisi, gerçeği whuber tarafından açıklamada belirtildiği gibi gelmez önyargılı değil standardını "t testi" etkiler. İlk notu, Gauss değişken için bu , bir numuneden z puanları tahmin ise olarak o zaman bunlar taraflı olacaktır.x { x i } z i = x i - μsx{xi}

zi=xiμσxix¯s

Ancak T istatistik genellikle bağlamında kullanılan örnekleme dağılımının arasında . Bu durumda z puanı Ancak bilmediğimiz için ne ne de hesaplayamayız . Bununla birlikte, istatistiği normal olursa, istatistiği Student-t dağılımını izler . Bu orta serili değildir yaklaşımı. Tek varsayım, numunelerinin Gaussian olduğu yönündedir. z ˉ x = ˉ x -μx¯ztμz ˉ x tnx

zx¯=x¯μσx¯x¯μs/n=t
ztμzx¯tnx

(Yaygın t-testi, muhtemelen Gauss olmayan daha geniş biçimde uygulanabilir olan . Bu etmez orta serili güvenmek , bahsedilen merkez sınırı ile teoremi olmasını sağlar bu hala Gauss olacaktır.)n ˉ xxnx¯


* "Dağılımdan bağımsız tarafsız tahmin edici" ile ilgili açıklama

"Dağılımsız" ile kestirimci, örneğinin yanı sıra popülasyonu hakkında herhangi bir bilgiye bağlı olamayacağını kastediyorum . "Tarafsız" ile kastettiğim, beklenen hata örnek boyutundan bağımsız olarak eşit olarak sıfırdır . ( Önyargıların olarak ortadan kaybolduğu , yalnızca asimptotik olarak tarafsız, diğer bir deyişle " tutarlı " olan bir tahmin edicinin aksine .){ x 1 , ... , x , n } e [ θ n ] - θ n , n ∞ ikenx{x1,,xn}E[θ^n]θnn

Yorumlarda bu , “dağılımsız tarafsız bir tahmin edicinin” olası bir örneği olarak verilmiştir. Biraz bu tahminci ; burada , fazla basıklığıdır . Bu tahmincisi olduğu değil gibi "dağıtım özgür" dağılımına bağlı . Tahmincinin , burada varyansıdır . Bu nedenle tahminci tutarlıdır, ancak olarak (kesinlikle) "tarafsız" değildir.κxxκxxD[ σ ]-σX=O[1σ^=f[s,n,κx]κxxκxxσ 2 x xO[1E[σ^]σx=O[1n]σx2xnO[1n]küçük için keyfi olarak büyük olabilir .n


Not: Aşağıda orijinal "cevabım" yer almaktadır. Buradan itibaren, yorumlar "dağılımsız" tarafsız tahmin ediciler olan standart "örnek" ortalama ve varyans ile ilgilidir (yani popülasyon Gauss olarak kabul edilmez ).

Bu tam bir cevap değil, örnek varyans formülünün neden yaygın olarak kullanıldığına dair bir açıklamadır .

adlı rastgele bir örnek verildiğinde , değişkenler ortak bir ortalamaya sahip oldukları sürece, tarafsız olacaktır , yani ˉ x = 1{x1,,xn}E[xi]=μx¯=1nixi

E[xi]=μE[x¯]=μ

Değişkenler de ortak sonlu varyans ve bunlar ise ilintisiz , o zaman Tahmincisi olur , aynı zamanda , tarafsız olmak yani Bu tahmin edicilerin tarafsızlığının sadece yukarıdaki varsayımlara (ve beklentinin doğrusallığına ; kanıtın sadece cebire) bağlı olduğuna dikkat edin . Sonuç Gaussian gibi belirli bir dağılıma bağlı değildir . Değişkenler do not var, ortak bir dağılıma sahip olması, ve hatta olması gerekmezE[xixj]-μ2={ σ 2 i = j 0 i js2=1n1i(xix¯)2x i

E[xixj]μ2={σ2i=j0ijE[s2]=σ2
xibağımsız (yani numunenin iid olması gerekmez ).

"Numune standart sapma" olduğu değil tarafsız bir tahmincisi, , ama yine de yaygın olarak kullanılır. Benim tahminim bunun basitçe tarafsız örnek varyansının kare kökü olması. (Artık karmaşık bir gerekçe olmadan.)sσssσ

Bir iid Gauss örneğinde, parametrelerin maksimum olabilirlik tahminleri (MLE) ve , yani varyans yerine bölünür . Ayrıca, iid Gauss örneğinde standart MLE sapması, MLE varyansının sadece kare köküdür. Ancak bu formüller ve sorunuzda ima edilen formlar Gauss iid varsayımına bağlıdır. ( σ 2)MLE=N-1μ^MLE=x¯nn2(σ^2)MLE=n1ns2nn2


Güncelleme: "Taraflı" ve "tarafsız" ile ilgili ek açıklama.

Yukarıdaki gibi bir öğeli örneği düşünün , , toplam kare sapması Belirtilen varsayımlar verildi yukarıdaki ilk bölümde mutlaka böylece (Gaussian-) MLE tahmincisi taraflı olarak "örnek sapması" tahmincisi varken tarafsız X = { x 1 , , x n } δ 2 n = i ( x i - ˉ x ) 2 E [ δ 2 n ] = ( n - 1 ) σ 2 ^ σ 2 n = 1nX={x1,,xn}

δn2=i(xix¯)2
E[δn2]=(n1)σ2
s 2 n =1
σn2^=1nδn2E[σn2^]=n1nσ2
sn2=1n1δn2E[sn2]=σ2

Şimdi örnek boyutu arttıkça daha az yanlı hale geldiği . Ancak , örnek boyutu ne olursa olsun sıfır yanlılığa sahiptir ( olduğu sürece ). Her iki tahmin için, varyans bunların arasında örnekleme dağılımının sıfır olmayan olacak ve bağlıdır . ns 2 n n>1nσn2^nsn2n>1n

Bir örnek olarak, aşağıdaki Matlab kodu , standart-normal popülasyon örnek içeren bir deneyi göz önünde bulundurur . için örnekleme dağılımlarını tahmin etmek üzere , deney kez tekrarlanır. (Kodu kendiniz denemek için buraya kesip yapıştırabilirsiniz .)z ˉ x , ^ σ 2 , s 2 , N = 10 6n=2zx¯,σ2^,s2N=106

% n=sample size, N=number of samples
n=2; N=1e6;
% generate standard-normal random #'s
z=randn(n,N); % i.e. mu=0, sigma=1
% compute sample stats (Gaussian MLE)
zbar=sum(z)/n; zvar_mle=sum((z-zbar).^2)/n;
% compute ensemble stats (sampling-pdf means)
zbar_avg=sum(zbar)/N, zvar_mle_avg=sum(zvar_mle)/N
% compute unbiased variance
zvar_avg=zvar_mle_avg*n/(n-1)

Tipik çıktı gibidir

zbar_avg     =  1.4442e-04
zvar_mle_avg =  0.49988
zvar_avg     =  0.99977

onaylayan

E[z¯](z¯)¯μ=0E[s2](s2)¯σ2=1E[σ2^](σ2^)¯n1nσ2=12

Güncelleme 2: Tarafsızlığın temelde "cebirsel" doğası hakkında not.

Yukarıdaki sayısal gösterimde, kod , deneyin replikasyonu ile bir topluluk ortalaması kullanarak gerçek beklentiyi yaklaşık olarak tahmin eder (her biri boyutunda bir örnektir ). Bu büyük sayı ile bile, yukarıda belirtilen tipik sonuçlar kesin olmaktan uzaktır.E[]N=106n=2

Tahmincilerin gerçekten tarafsız olduğunu sayısal olarak göstermek için, durumuna yaklaşık olarak basit bir hile kullanabiliriz : koda aşağıdaki satırı eklemeniz yeterlidirN

% optional: "whiten" data (ensure exact ensemble stats)
[U,S,V]=svd(z-mean(z,2),'econ'); z=sqrt(N)*U*V';

("standart-normal rasgele # 'ler oluştur" ve "örnek istatistikleri hesapla" dan önce yerleştirme)

Bu basit değişiklikle, kodu ile çalıştırmak bile aşağıdaki gibi sonuçlar verirN=10

zbar_avg     =  1.1102e-17
zvar_mle_avg =  0.50000
zvar_avg     =  1.00000

3
@amoeba Şapkamı yerim. Her satırdaki SD değerlerinin karesini aldım, sonra bunların ortalamasını aldım ve tarafsız (0.9994) çıktılar, oysa SD değerlerinin kendileri değil. Yani siz ve GeoMatt22 doğru ve yanılıyorum.
Carl

2
@Carl: Bir parametrenin tarafsız bir tahmincisinin dönüştürülmesinin, beklentinin doğrusallığından sonra, dönüşümün afin olduğu durumlar dışında, dönüştürülmüş parametrenin tarafsız bir tahminini vermediği genellikle doğrudur. Peki tarafsızlık sizin için hangi ölçekte önemlidir?
Scortchi - Monica'yı eski durumuna döndürün

4
Carl: Cevabımın sorunuza dik olduğunu düşünüyorsanız özür dilerim. Q'nun "mantıklı bir standart sapma formülü neden tipik olarak kullanılıyor?" C: "basitçe ilişkili varyans tahmin edicisinin tarafsız olduğu, herhangi bir gerçek matematiksel / istatistiksel gerekçeye karşı" olduğu için. Yorumunuza gelince, tipik olarak "tarafsız", beklenen değeri örnek boyutundan bağımsız olarak doğru olan bir tahmin ediciyi açıklar . Sadece sonsuz örnek büyüklüğü sınırında tarafsız ise, tipik olarak " tutarlı " olarak adlandırılır .
GeoMatt22

3
(+1) Güzel cevap. Küçük uyarı: Bu cevapta belirtilen tutarlılık üzerindeki Wikipedia pasajı biraz karışıklık yaratıyor ve bununla ilgili yapılan parantez ifadesi potansiyel olarak yanıltıcı. "Tutarlılık" ve "asimtotik tarafsızlık" bir anlamda bir tahmin edicinin dikey özellikleridir. Bu konuda biraz daha fazla bilgi için, bu cevabın yorum başlığına bakın .
kardinal

3
σσ

15

S=(XX¯)2n1σσk

(n1)k22k2Γ(n12)Γ(n+k12)Sk=Skck

σσk

σ~jk=(Sjcj)kj

j=k

Eσ~jkσk=(ckcjkj1)σk

ve varyansı

Varσ~jk=Eσ~j2k(Eσ~jk)2=c2kck2cj2kjσ2k

σσ~11=Sc1σ~21=Sσ~1σ~2

Eσ~1σ=0Eσ~2σ=(c11)σVarσ~1=Eσ~12(Eσ~11)2=c2c12c12σ2=(1c121)σ2Varσ~2=Eσ~12(Eσ~2)2=c2c12c2σ2=(1c12)σ2
c2=1S2σ2

İki tahminci için bire 20 arası örnek boyutlarında MSE'ye sapma ve varyansın katkılarını gösteren grafik

akSkσ2

(EakSkσk)2+E(akSk)2(EakSk)2=[(akck1)2+ak2c2kak2ck2]σ2k=(ak2c2k2akck+1)σ2k

ve bu nedenle

ak=ckc2k

potansiyel ilgi çekici başka bir grup tahmincinin tanımlanmasına izin verir:

σ^jk=(cjSjc2j)kj

σ^11=c1SSSσk(95)k

σ~jkσ^jk n1nSn1χn12(0.5)Seσn=2(n1)s2χn12(α)(n1)s2χn12(1α)1α

$ \ sigma $ için tahminleri gösteren güven dağılımı

(0.45s,31.9s).) Kullanmak istediğiniz şey hakkında oldukça açık olmaya hazır olmadıkça, bir nokta tahmincisinin özellikleri hakkında titiz olmanın bir anlamı yoktur - en açık şekilde belirli bir uygulama için özel bir kayıp işlevi tanımlayabilirsiniz. Tam olarak (veya neredeyse) tarafsız bir tahmin ediciyi tercih etmenizin bir nedeni, bunu önyargıların birikmesini istemediğiniz sonraki hesaplamalarda kullanmanızdır: standart sapmanın ortalama taraflı sapma tahminlerini ortalamanın gösterimi, böyle (daha karmaşık bir örnek bunları doğrusal regresyonda bir yanıt olarak kullanmak olabilir). Prensip olarak, her şeyi kapsayan bir model, bir ara adım olarak tarafsız tahminlere duyulan ihtiyacı ortadan kaldırmalıdır, ancak belirtilmesi ve uyması oldukça zor olabilir.

σ


7

S2: Birisi bana neden SD'yi açıkça önyargılı ve yanıltıcı olduğu için kullandığımızı açıklar mı?

Bu yorumlarda bir kenara geldi, ama sanırım tekrarın üstesinden geliyor, çünkü cevabın özü bu:

Örnek varyans formülü yansızdır ve varyanslar katkı maddesidir . Eğer herhangi bir (afin) dönüşüm yapmayı bekliyorsanız, bu "güzel" bir SD tahmincisi üzerinde "güzel" bir varyans tahmin edicisi üzerinde ısrar etmeniz gereken ciddi bir istatistiksel nedendir.

İdeal bir dünyada, eşdeğerdirler. Ama bu evrende bu doğru değil. Birini seçmelisiniz, böylece bilgiyi yolda birleştirmenizi sağlayanı da seçebilirsiniz.

İki örnekleme aracı karşılaştırmak? Farklarının varyansı, varyanslarının toplamıdır.
Birkaç terimle doğrusal bir kontrast yapmak mı? Varyanslarının doğrusal bir kombinasyonunu alarak varyansını alın.
Regresyon çizgisine uyuyor mu? Tahmini beta katsayılarınızın varyans-kovaryans matrisini kullanarak varyanslarını alın.
F-testleri, t-testleri veya t-tabanlı güven aralıkları mı kullanıyorsunuz? F testi doğrudan varyans gerektirir; ve t-testi bir F-testinin kareköküne tam olarak eşdeğerdir.

Bu yaygın senaryoların her birinde, tarafsız sapmalarla başlarsanız, son derece tarafsız kalırsınız (son adımınız raporlama için SD'lere dönüştürülmedikçe).
Bu arada, tarafsız SD'lerle başlasaydınız, ne ara adımlarınız ne de nihai sonuç yine de tarafsız olmazdı .


Varyans bir mesafe ölçümü değildir ve standart sapmadır. Evet, vektör mesafeleri karelerle eklenir, ancak birincil ölçüm mesafedir. Soru, düzeltilmiş mesafeyi ne için kullanacağınızdı ve mesafeyi neden yokmuş gibi görmezden gelmemeliydik.
Carl

Sanırım "birincil ölçüm mesafedir" mutlaka doğru değildir. 1) Tarafsız varyanslarla çalışmak için bir yönteminiz var mı; onları birleştirin; nihai nihai varyansı al; ve tarafsız bir SD almak için sqrt yeniden ölçeklendirmek? Harika, o zaman yap. Değilse ... 2) yapacaksın yapmak küçücük örnekten bir SD ile? Kendi başına rapor mu? Veri noktalarını doğrudan çizmek daha iyi, yayılmalarını özetlemek daha iyi. Ve insanlar bunu SE'lere ve dolayısıyla CI'lara bir girdi olarak nasıl yorumlayacaklar? CI'lara bir girdi olarak anlamlı, ama sonra t tabanlı CI'yi (her zamanki SD ile) tercih ederim.
civilstat

n<25

"böylece bilgiyi yolda birleştirmenize olanak tanıyan kişiyi de seçebilirsiniz" ve "birincil ölçüm mesafedir" mutlaka doğru değildir. Çiftçi Jo'nun evi yoldan 640 dönümlük? Kişi, her durum için uygun ölçümü doğru kullanır veya sahte tanık için I'den daha yüksek bir toleransa sahiptir. Buradaki tek sorum ne zaman ne zaman kullanılacağıdır ve cevabının "asla" olmamasıdır.
Carl

1

Bu yazı anahat biçimindedir.

(1) Karekök almak afin bir dönüşüm değildir (Credit @Scortchi.)

var(s)=E(s2)E(s)2E(s)=E(s2)var(s)var(s)

var(s)=Σi=1n(xix¯)2n1E(s)=Γ(n12)Γ(n2)Σi=1n(xix¯)22Σi=1n(xix¯)2n1=var(s)

var(s)E(s)n

var(s)E(s)

x¯αtdf=1t1df2var(s)var(s)σ^=1n1.514γ2i=1n(xix¯)2

γ2df=1

Normal dağıtım durumu için:

var(s)E(s)

n25E(s)tX¯μvar(n)/ntn1σnE(s)var(n)E(s)


2
A2 yanlış: bu reçeteyi takip etmek açıkça geçersiz testler üretecektir. Soruya yorum yaptığım gibi, belki de çok ince bir şekilde: bir önyargı düzeltmesinin neden ilgisiz olduğunu görmek için t-testi gibi klasik bir testin herhangi bir teorik hesabına danışın.
whuber

2
İstatistiksel testler için önyargı düzeltmesinin neden kırmızı bir ringa balığı olduğunu gösteren güçlü bir meta-argüman var: bir önyargı düzeltme faktörü içermemek yanlış olsaydı , bu faktör zaten Öğrenci t dağılımı, F dağılımı, Başka bir deyişle, bu konuda yanılıyorsam, herkes geçen yüzyılın istatistiksel testi konusunda yanılmıştı.
whuber

1
E(s)Γ(n12)Γ(n2)Σi=1n(xix¯)22, the unbiased estimate of standard deviation? What's s?
Scortchi - Reinstate Monica

2
@Scortchi the notation apparently came about as an attempt to inherit that used in the linked post. There s is the sample variance, and E(s) is the expected value of s for a Gaussian sample. In this question, "E(s)" was co-opted to be a new estimator derived from the original post (i.e. something like σ^s/α where αE[s]/σ). If we arrive at a satisfactory answer for this question, probably a cleanup of the question & answer notation would be warranted :)
GeoMatt22

2
The z-test assumes the denominator is an accurate estimate of σ. It's known to be an approximation that is only asymptotically correct. If you want to correct it, don't use the bias of the SD estimator--just use a t-test. That's what the t-test was invented for.
whuber

0

I want to add the Bayesian answer to this discussion. Just because your assumption is that the data is generated according to some normal with unknown mean and variance, that doesn't mean that you should summarize your data using a mean and a variance. This whole problem can be avoided if you draw the model, which will have a posterior predictive that is a three parameter noncentral scaled student's T distribution. The three parameters are the total of the samples, total of the squared samples, and the number of samples. (Or any bijective map of these.)

Incidentally, I like civilstat's answer because it highlights our desire to combine information. The three sufficient statistics above are even better than the two given in the question (or by civilstat's answer). Two sets of these statistics can easily be combined, and they give the best posterior predictive given the assumption of normality.


How then does one calculate an unbiased standard error of the mean from those three sufficient statistics?
Carl

@carl You can easily calculate it since you have the number of samples n, you can multiply the uncorrected sample variance by nn1. However, you really don't want to do that. That's tantamount to turning your three parameters into a best fit normal distribution to your limited data. It's a lot better to use your three parameters to fit the true posterior predictive: the noncentral scaled T distribution. All questions you might have (percentiles, etc.) are better answered by this T distribution. In fact, T tests are just common sense questions asked of this distribution.
Neil G

How can one then generate a true normal distribution RV from Monte Carlo simulations(s) and recover that true distribution using only Student's-t distribution parameters? Am I missing something here?
Carl

@Carl The sufficient statistics I described were the mean, second moment, and number of samples. Your MLE of the original normal are the mean and variance (which is equal to the second moment minus the squared mean). The number of samples is useful when you want to make predictions about future observations (for which you need the posterior predictive distribution).
Neil G

Though a Bayesian perspective is a welcome addition, I find this a little hard to follow: I'd have expected a discussion of constructing a point estimate from the posterior density of σ. It seems you're rather questioning the need for a point estimate: this is something well worth bringing up, but not uniquely Bayesian. (BTW you also need to explain the priors.)
Scortchi - Reinstate Monica
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.