«residuals» etiketlenmiş sorular

Bir modelin kalıntıları, tahmin edilen değerlerden eksi olan gerçek değerlerdir. Birçok istatistiksel model, artıklar tarafından tahmin edilen hata hakkında varsayımlar yapar.

3
Ortalama Kareler Hatası ve Artık Kareler Toplamı
Vikipedi tanımlarına bakarak: Ortalama Kare Hatası (MSE) Kalan Kareler Toplamı (RSS) Bana öyle geliyor ki MSE = 1N-RSS = 1N-Σ ( fben- yben)2MSE=1N-RSS=1N-Σ(fben-yben)2\text{MSE} = \frac{1}{N} \text{RSS} = \frac{1}{N} \sum (f_i -y_i)^2 burada örnek sayısıdır ve bizim .N-N-Nfbenfbenf_iybenybeny_i Ancak, Wikipedia makalelerinden hiçbiri bu ilişkiden bahsetmiyor. Niye ya? Bir şey mi kaçırıyorum?
31 residuals  mse 

2
Ham artıklar ve standartlaştırılmış artıklar ve öğrenci artıkları - ne zaman kullanılmalı?
Bu benzer bir soruya benziyor ve fazla cevap alamadım. Cook's D gibi testlerden kaçınmak ve sadece kalıntılara bir grup olarak bakmak, diğerlerinin uygunluk durumunu değerlendirirken artıkları nasıl kullandığıyla ilgileniyorum. Ham artıkları kullanıyorum: QQ-arsada, normalliği değerlendirmek için bir grafiği olarak (a) 'hetereoscedasticity ve (b) seri otokorelasyon gözün kontrolü için artıkların karşı.yyy …

1
Serbestlik dereceleri tam sayı olmayan bir sayı olabilir mi?
GAM kullandığımda, artık DF (kodun son satırı) olduğunu gösteriyor. Bu ne anlama geliyor? GAM örneğinin ötesine geçmek, Genel olarak, serbestlik derecelerinin sayısı tam sayı olmayan bir sayı olabilir mi?26,626,626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 



2
Genelleştirilmiş doğrusal (karışık) modeller için teşhis (özellikle artıklar)
Şu anda zor sayım verileri için doğru modeli bulmakta zorlanıyorum (bağımlı değişken). Gaussian ya da negatif binomial gibi çeşitli aileleri olan genelleştirilmiş lineer karışık efekt modellerinin yanı sıra lmerve lme4(log kaydı ile ) gibi çeşitli farklı modelleri (veri çeşitlerim için karma efekt modelleri gerekli) denedim . Ancak, ortaya çıkan uyumun …


5
Doğrusal modellerin varsayımları ve artıklar normal olarak dağıtılmazsa ne yapmalı
Doğrusal regresyon varsayımlarının ne olduğu konusunda biraz kafam karıştı. Şimdiye kadar: açıklayıcı değişkenlerin tümü yanıt değişkeni ile doğrusal olarak ilişkilidir. (Durum böyleydi) açıklayıcı değişkenler arasında herhangi bir eşzamanlılık vardı. (çok az eşzamanlılık vardı). Cook'un modelimin veri noktalarındaki mesafeleri 1'in altındadır (bu durumda, tüm mesafeler 0,4'ün altındadır, bu nedenle etki noktası …

2
Regresyon çizgisini tahmin etmek için neden artıkların normalliği “hiç de önemli değil”?
Gelman ve Hill (2006) p46'ya şunu yazmaktadır: Genel olarak en az önemli olan regresyon varsayımı, hataların normal olarak dağılmış olmasıdır. Aslında, regresyon çizgisini tahmin etmek amacıyla (bireysel veri noktalarının tahmin edilmesine kıyasla), normallik varsayımı hiç de önemli değildir. Bu nedenle, birçok regresyon ders kitabının aksine, regresyon artıklarının normalliğinin teşhisini önermiyoruz. …

1
MCMC tabanlı regresyon modellerinde rezidüel teşhis
Geçenlerde bir MCMC algoritması (gerçekte R'de MCMCglmm işlevini kullanarak) kullanarak Bayesian çerçevesindeki regresyon karma modellerini yerleştirmeye başladım. Tahmin sürecinin yakınlaşmasının nasıl teşhis edildiğini anladığımı düşünüyorum (iz, büyü parsel, otokorelasyon, arka dağılım ...). Bayesian çerçevesinde beni vuran şeylerden biri de bu teşhisi yapmak için çok çaba sarfedilmiş gibi görünmekle birlikte, takılı …

2
Basit doğrusal regresyonda, artıkların varyans formülü nereden geliyor?
Kullandığım bir metne göre, kalıntısının varyans formülü şu şekilde verilir:ithithi^{th} σ2(1−1n−(xi−x¯¯¯)2Sxx)σ2(1−1n−(xi−x¯)2Sxx)\sigma^2\left ( 1-\frac{1}{n}-\frac{(x_{i}-\overline{x})^2}{S_{xx}} \right ) kalıntı gözlenen değer ile takılan değer arasındaki fark olduğundan inanmak zor buluyorum ; biri farkın varyansını hesaplayacak olsaydı, en azından ortaya çıkan ifadede bazı "artılar" beklerdim. Türetmenin anlaşılmasında herhangi bir yardım takdir edilecektir.ithithi^{th}ithithi^{th}ithithi^{th}

2
Darboğaz mimarileri sinir ağlarında nasıl çalışır?
Bir darboğaz mimarisini, ResNet kağıdında bulunan ve [iki 3x3 dönüşümlü katman] 'ın [bir 1x1 dönş., Bir 3x3 dönş. 1x1 konveksiyon katmanlarının başka bir yazıda açıklanan boyut küçültme (ve restorasyonu) biçimi olarak kullanıldığını anlıyorum . Ancak, bu yapının neden orijinal düzen kadar etkili olduğu konusunda net değilim. Bazı iyi açıklamalar şunları …

1
Sandviç tahmincisi sezgisi
Vikipedi ve R sandviç paketi vinyeti , OLS katsayısı standart hatalarını destekleyen varsayımlar ve sandviç tahmincilerinin matematiksel arka planı hakkında iyi bilgi verir. Yine de, artık standart OLS katsayıları varyans tahminini tam olarak anlayamadığım için, artıkların heteroseladastisite sorununun nasıl ele alındığından emin değilim. Sandviç tahmin edicisinin ardındaki sezgi nedir?

2
Artık grafikler: neden gözlemlenen değerlerine değil, yerleştirilmiş değerlere karşı çizim ?
OLS regresyonu bağlamında, sabit varyansın test edilmesi ve model spesifikasyonunun değerlendirilmesi için geleneksel olarak bir artık grafiğin (takılan değerlere karşı) görüntülendiğini anlıyorum. Kalanlar neden değerlerine değil, uyumlara karşı çizilir ? Bilgiler bu iki grafikten nasıl farklı?YYY Aşağıdaki artık grafikleri üreten bir model üzerinde çalışıyorum: Dolayısıyla, yerleştirilen değerlere karşı grafik hızlı …

4
Lme4 (> 1.0) ile donatılmış bir binom GLMM'nin uygunluğu nasıl değerlendirilir?
Ben bir binom dağılımı ve logit bağlantı fonksiyonu ile bir GLMM var ve verilerin önemli bir yönünün modelde iyi temsil olmadığını hissediyorum. Bunu test etmek için, verilerin logit ölçeğinde doğrusal bir fonksiyon tarafından iyi tanımlanıp tanımlanmadığını bilmek istiyorum. Bu nedenle, artıkların iyi davranıp davranmadığını bilmek istiyorum. Ancak, hangi artıkların arsa …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.