«steins-phenomenon» etiketlenmiş sorular

Stein'ın fenomeni (paradoks), aynı anda üç veya daha fazla parametre tahmin edildiğinde, tüm gözlemlerin ortalamasından daha doğru tahmin ediciler olduğunu belirtir.

5
Büzülmeyle ilgili birleşik bakış: Stein'in paradoksu, ridge regresyonu ve karışık modellerde rastgele etkiler arasındaki ilişki nedir?
Aşağıdaki üç fenomeni düşünün. Stein'ın paradoksu: çok değişkenli normal dağılımdan bazı veriler verilen Rn,n≥3Rn,n≥3\mathbb R^n, \: n\ge 3 , örnek ortalama, gerçek ortalamanın çok iyi bir tahmincisi değildir. Örnek ortalamanın tüm koordinatlarını sıfıra doğru [veya ortalamalarına doğru ya da doğru bir şekilde anlıyorsam, aslında herhangi bir değere doğru daraltırsa], daha …

2
Stein’in paradoksunun neden sadece boyutlarda geçerli olduğuna dair sezgi
Stein Örnek gösterir maksimum olabilirlik tahmini olduğu nnn araçlarla normal dağılım değişkenler μ1,…,μnμ1,…,μn\mu_1,\ldots,\mu_n ve sapma 111 IFF (kare işlev kaybı altında) kabul edilemez n≥3n≥3n\ge 3 . Düzgün bir kanıt için, Büyük Ölçekli Çıkarım'ın ilk bölümüne bakın : Bradley Effron'un Tahmin, Test Etme ve Tahmini için Ampirik Bayes Yöntemleri . x∼N(μ,1)x∼N(μ,1)x …

1
Kullanırken mu Stein'ın Paradox kıpırdama normunu yerine normunu?
Stein'ın Paradoksu , aynı anda üç veya daha fazla parametre tahmin edildiğinde, parametreleri ayrı ayrı ele alan herhangi bir yönteme göre ortalama olarak daha doğru birleşik tahminciler (yani, daha düşük ortalama kare hatası) demektir. Bu çok mantıksız bir sonuçtur. Aynı sonuç, normu (beklenen ortalama kare hatası) yerine normu (beklenen ortalama …

4
Uç durumlarda hassaslık ve geri çağırma için doğru değerler nelerdir?
Hassasiyet şu şekilde tanımlanır: p = true positives / (true positives + false positives) Gibi, bu doğru mu true positivesve false positiveshassas 1 yaklaşır yaklaşım 0? Hatırlama için aynı soru: r = true positives / (true positives + false negatives) Şu anda bu değerleri hesaplamam gereken bir istatistiksel test uyguluyorum …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

1
James-Stein kestiricisine neden “büzülme” kestiricisi deniyor?
James-Stein tahmincisi hakkında okuyordum. Bu yer, tanımlanan notları gibi θ^=(1−p−2∥X∥2)Xθ^=(1−p−2‖X‖2)X \hat{\theta}=\left(1 - \frac{p-2}{\|X\|^2}\right)X Kanıtı okudum ama şu ifadeyi anlamıyorum: Geometrik olarak, James-Stein tahmincisi X'in her bir bileşenini XXXbaşlangıç ​​noktasına doğru daraltır ... " X'in her bileşenini XXXbaşlangıç ​​noktasına doğru daraltır " tam olarak ne anlama geliyor? Ben gibi şeyler düşünüyordum …

2
James-Stein tahmincisi: Efron ve Morris beyzbol örnekleri için büzülme faktöründe
Bradley Efron ve Carl Morris'in "Stein'ın İstatistiklerdeki Paradoksu" adlı 1977 Scientific American gazetesinde James-Stein Büzülme faktörünü hesaplamakla ilgili bir sorum var . Beyzbol oyuncuları için veri topladım ve aşağıda verilmiştir: Name, avg45, avgSeason Clemente, 0.400, 0.346 Robinson, 0.378, 0.298 Howard, 0.356, 0.276 Johnstone, 0.333, 0.222 Berry, 0.311, 0.273 Spencer, 0.311, …

5
James-Stein 'vahşi doğada' küçülüyor mu?
James-Stein büzülme fikri ile alınıyorum (yani, muhtemelen bağımsız normallerden oluşan bir vektörün tek bir gözleminin doğrusal olmayan bir işlevi, 'daha iyi' nin kare hata ile ölçüldüğü rasgele değişkenlerin ortalamalarının daha iyi bir tahmincisi olabilir. ). Ancak, bunu uygulamalı çalışmalarda hiç görmedim. Açıkçası yeterince iyi değilim. James-Stein'ın uygulamalı bir ortamda tahmini …

1
Ampirik Bayes ve rastgele etkiler arasında bir bağlantı var mı?
Son zamanlarda ampirik Bayes (Casella, 1985, Ampirik Bayes veri analizine giriş) hakkında bir şeyler okudum ve rastgele etkiler modeline çok benziyordu; çünkü her ikisinin de küresel ortama daralmış tahminleri var. Ama bunu tam anlamıyla okumadım ... Aralarındaki benzerlik ve farklılıklar hakkında herhangi bir görüş sahibi olan var mı?

1
Eşit olmayan varyanslara sahip James-Stein Tahmincisi
James-Stein tahmincisinin bulduğum her ifade, tahmin edilen rastgele değişkenlerin aynı (ve birim) varyansa sahip olduğunu varsayar. Ancak bu örneklerin tümü, JS tahmincisinin, birbirleriyle hiçbir ilgisi olmayan miktarları tahmin etmek için kullanılabileceğinden de bahsetmektedir. Wikipedia örneği Montana ışık, Tayvan çay tüketimi ve domuz ağırlığının hızıdır. Ancak muhtemelen bu üç miktardaki ölçümleriniz …
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.