«regression» etiketlenmiş sorular

Bir (veya daha fazla) "bağımlı" değişken ile "bağımsız" değişken arasındaki ilişkiyi analiz etme teknikleri.



1
Neden kullanamıyoruz
Bağımlı değişken ile doğrusal bir regresyon modelimiz olduğunu düşünün . Biz onun bulmak . Şimdi, başka bir gerileme yapıyoruz, ancak bu sefer ve benzer şekilde buluyoruz . Hangi modelin daha uygun olduğunu görmek için her iki karşılaştıramayacağım söylendi . Neden? Bana verilen neden, farklı miktarların (farklı bağımlı değişkenler) değişkenliğini karşılaştırmamızdır. …

1
Regresyon modellerinde sol ve sağ taraf terminolojisi
y=β0+β1x1+ε0y=β0+β1x1+ε0y = \beta_{0} + \beta_{1}x_{1} + \varepsilon_{0} Yukarıda belirtilen çok basit doğrusal regresyon gibi regresyon modellerini tanımlayan dil sıklıkla değişir ve bu tür varyasyonlar genellikle anlamlarda hafif değişimler taşır. Örneğin, modelin denklemin sol tarafındaki kısmı (bilmediğim diğerleri arasında) parantez içindeki çağrışımlar ve ifadelerle ifade edilebilir: Bağımlı değişken (nedensel bağımlılıkta ipuçları) …

1
R kare örnekinden nasıl hesaplanır?
Bunun muhtemelen başka bir yerde tartışıldığını biliyorum, ama açık bir cevap bulamadım. Formülü kullanmaya çalışıyorumR2=1−SSR/SSTR2=1−SSR/SSTR^2 = 1 - SSR/SST örnek dışı hesaplamak R2R2R^2 doğrusal bir regresyon modelinin SSRSSRSSR kare artıkların toplamıdır ve SSTSSTSSTtoplam kareler toplamıdır. Eğitim seti için, SST=Σ(y−y¯train)2SST=Σ(y−y¯train)2 SST = \Sigma (y - \bar{y}_{train})^2 Test seti ne olacak? Kullanmaya …

1
Lm modelinde öğrenci kalıntıları v / s standart kalıntıları mıdır?
"Öğrenci kalıntıları" ve "standart kalıntılar" regresyon modellerinde aynı mıdır? R'de doğrusal bir regresyon modeli oluşturdum ve Studentized artıklarının v / s uygun değerlerinin grafiğini çizmek istedim, ancak R'de bunu yapmanın otomatik bir yolunu bulamadım. Bir modelim olduğunu varsayalım library(MASS) lm.fit <- lm(Boston$medv~(Boston$lstat)) daha sonra kullanma plot(lm.fit), Öğrenci Değerli artıkların karşılık …

3
Negatif olmayan sırt regresyonu nasıl yapılır?
Negatif olmayan sırt regresyonu nasıl yapılır? Negatif olmayan kement mevcuttur scikit-learn, ancak sırt için betaların olumsuzluklarını zorlayamam ve gerçekten de negatif katsayılar alıyorum. Bunun neden olduğunu bilen var mı? Ayrıca, en küçük kareler açısından sırt uygulayabilir miyim? Bunu başka bir soruya taşıdık: OLS regresyonu açısından sırt regresyonunu uygulayabilir miyim?

2
Sırt regresyonunda “matris inversiyonunun sayısal kararlılığı” için açıklayıcı açıklama ve fazlalığı azaltmada rolü
En küçük kareler regresyon probleminde düzenlemeyi uygulayabileceğimizi anlıyorum. w∗=argminw[(y−Xw)T(y−Xw)+λ∥w∥2]w∗=argminw⁡[(y−Xw)T(y−Xw)+λ‖w‖2]\boldsymbol{w}^* = \operatorname*{argmin}_w \left[ (\mathbf y-\mathbf{Xw})^T(\boldsymbol{y}-\mathbf{Xw}) + \lambda\|\boldsymbol{w}\|^2 \right] ve bu sorunun şu şekilde kapalı bir çözümü olduğunu: w^=(XTX+λI)−1XTy.w^=(XTX+λI)−1XTy.\hat{\boldsymbol{w}} = (\boldsymbol{X}^T\boldsymbol{X}+\lambda\boldsymbol{I})^{-1}\boldsymbol{X}^T\boldsymbol{y}. 2. denklemde, düzenlileştirmenin, matris tersinin sayısal kararlılığını geliştirmek için yapılan \ boldsymbol {X} ^ T \ boldsymbol {X} ' un köşegenine …

3
Regresyon'u veri aralığının dışında yansıtmak için kullanma tamam mı? asla tamam değil mi? bazen tamam mı?
Veri aralığının dışında projeksiyon yapmak için regresyon kullanma hakkındaki düşünceleriniz nelerdir? Doğrusal veya güç modeli şekline uyduğundan eminseniz, model veri aralığının ötesinde yararlı olamaz mı? Mesela fiyat bazında hacimim var. İnandığım veri aralığı dışındaki fiyatlar için projeksiyon yapabilmeliyiz. Senin düşüncelerin? VOL PRICE 3044 4.97 2549 4.97 3131 4.98 2708 4.98 …

2
Vaka-kontrol çalışmalarında hayatta kalma oranı eğilimleri
Hayatta kalma analizi yapmanın yanlış yolu nedeniyle reddedilen bir makale gönderdim. Hakem, “zaman eğilimlerine ilişkin hayatta kalma analizi daha karmaşık sansür yolları gerektirir” dışında başka hiçbir ayrıntı veya açıklama bırakmadı. Soru: Son yıllarda sigara içenler arasında aşırı ölüm riski azaldı mı? Veri: Almanya'da 25.000 sigara içicisi. 1995-2014 yılları arasında herhangi …

1
R'de çapraz doğrulayıcı kement regresyonu
R işlevi cv.glm (kütüphane: önyükleme), genelleştirilmiş doğrusal modeller için tahmini K-kat çapraz doğrulama tahmin hatasını hesaplar ve deltayı döndürür. Bu işlevi bir kement regresyonu (kütüphane: glmnet) için kullanmak mantıklı mı ve eğer öyleyse, bu nasıl yapılabilir? Glmnet kütüphanesi, en iyi dönüş parametresini elde etmek için çapraz doğrulamayı kullanır, ancak son …

3
arasındaki ilişki
OLS regresyonlarının ile ilgili çok temel bir soruR,2R,2R^2 OLS regresyonunu çalıştırın y ~ x1, bir , diyelim ki 0.3R2R2R^2 OLS regresyonunu çalıştırın y ~ x2, başka bir , diyelim 0.4R2R2R^2 şimdi y ~ x1 + x2 gerilemesi yapıyoruz, bu regresyonun R karesi ne değer olabilir? Bence çoklu regresyon için 0.4'den …

2
Bayes lineer regresyonunda posterior prediktif dağılımın değerlendirilmesi
Bayes lineer regresyon için posterior doğrusal regresyonun nasıl değerlendirileceği konusunda kafam karıştı, burada sayfa 3'te açıklanan ve aşağıda kopyalanan temel vakayı geçti . p (y~∣ y) = ∫p (y~∣ β,σ2) p ( β,σ2∣ y)p(y~|y)=∫p(y~|β,σ2)p(β,σ2|y) p(\tilde y \mid y) = \int p(\tilde y \mid \beta, \sigma^2) p(\beta, \sigma^2 \mid y) Temel …

2
Çoklu için bu doğrusal regresyon kimliğini anlamanın zarif / anlayışlı bir yolu var mı
Doğrusal regresyonda, modele uyursak, hoş bir sonuçla karşılaştım. E[Y]=β1X1+β2X2+c,E[Y]=β1X1+β2X2+c,E[Y] = \beta_1 X_1 + \beta_2 X_2 + c, sonra, standardize edersek ve ortalarsak YYY, X1X1X_1 ve X2X2X_2 veri, R2=Cor(Y,X1)β1+Cor(Y,X2)β2.R2=Cor(Y,X1)β1+Cor(Y,X2)β2.R^2 = \mathrm{Cor}(Y,X_1) \beta_1 + \mathrm{Cor}(Y, X_2) \beta_2. Bu bana 2 değişkenli bir versiyon gibi geliyor R2=Cor(Y,X)2R2=Cor(Y,X)2R^2 = \mathrm{Cor}(Y,X)^2 için y=mx+cy=mx+cy=mx+c hoş olan …


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.