Neden varyansı stabilize ediyoruz?


15

Kaggle Deneme Eval yöntemini okurken varyans dengeleyici dönüşümle karşılaştım . Ortalamalarını almadan önce kappa değerlerini dönüştürmek ve sonra bunları geri dönüştürmek için bir varyans stabilizasyon dönüşümü kullanırlar. Varyans sabitleme dönüşümleri üzerindeki wiki'yi okuduktan sonra bile anlayamıyorum, neden varyansları stabilize ediyoruz? Bununla ne gibi yararlar elde ederiz?


6
Genellikle amaç, (asimtotik) varyansı ilgili parametreden bağımsız hale getirmektir. Bu, özellikle ilgili miktarları hesaplamak için referans dağılımını bilmemiz gerektiğinde çıkarımda önemlidir.
kardinal

Yanıtlar:


13

İşte bir cevap: genellikle, istatistiksel çıkarım yapmanın en etkili yolu verilerinizin ne zaman geçerli olduğudur. Değilse, farklı gözlemlerden farklı miktarlarda bilgi alırsınız ve bu daha az verimlidir. Bunu izlemenin başka bir yolu, çıkarımınıza fazladan bilgi ekleyebilmeniz (yani, varyansın dengeleyici dönüşümü yoluyla varyansın fonksiyonel formu), tahminlerinizin doğruluğunu genellikle en azından asimptotik olarak artıracağınızı söylemektir. Çok küçük örneklerde, varyans modellemesi ile uğraşmak küçük örnek yanlılığınızı artırabilir. Bu bir tür ekonometrik GMM tipi argüman: ek anlar eklerseniz, asimptotik varyansınız yükselemez; ve sonlu örnek yanlılığınız, aşırı serbestlik dereceleriyle artar.

Başka bir cevap kardinal tarafından verildi: eğer asimptotik varyans ifadenizde asılı olan bilinmeyen bir varyansınız varsa, asimptotik dağılıma yakınlaşma daha yavaş olacaktır ve bu varyansı bir şekilde tahmin etmeniz gerekir. Verilerinizi veya istatistiklerinizi önceden döndürmek genellikle asimptotik yaklaşımların doğruluğunu artırmaya yardımcı olur.


Sanırım cevabınızdaki ilk cümleyi anladım ve sezgisel olarak bana hitap ediyor. Google için bu gözlem için bir isim var mı? Farklı gözlemlerde farklı miktarda bilgiye sahip olduğunuzda ne olduğunu ve bunun nasıl verimsiz olduğunu gösteren bazı düşünce deneyleri veya örnekler bulmak istiyorum
Pushpendre

Korn & Graubard (1999) anket istatistiklerindeki metni tartışmaktadır.
StasK

Ancak burada dönüşüm bir ortalama hesaplamak için kullanılır.f-1(1nΣbenf(κben))

@PushpendreRastogi bu dönüşüm hakkındaki wikipedia makalesini okumak isteyebilirsiniz . Fisher tarafından ampirik bir korelasyon katsayısının (normal değişkenler arasında) varyansının stabilize edilmesi için getirilmiştir. Bu durumda, dönüştürülen değişken, yaklaşık örnek boyutuna bağlı olarak, bilinmeyen korelasyon katsayısına değil, varyansla yaklaşık normal olacaktır (bu yüzden varyansı “stabilize eder”).
Elvis

@Elvis, wivipedia makalesinde, pivotal istatistik ( en.wikipedia.org/wiki/Pivotal_statistic ) ile ilgili korelasyon örneğini verdim . [Yorumdaki güzel bağlantıyı nasıl buldunuz? Bir href denedim, çirkin görünüyordu.]
StasK
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.