«regression» etiketlenmiş sorular

Bir (veya daha fazla) "bağımlı" değişken ile "bağımsız" değişken arasındaki ilişkiyi analiz etme teknikleri.

3
Büyük , küçük problemiyle uğraşırken model kararlılığı
tanıtım: Klasik "büyük p, küçük n problemi" olan bir veri kümem var. Mevcut sayıların sayısı n = 150 iken olası yordayıcıların sayısı p = 400'dür. Sonuç sürekli bir değişkendir. En "önemli" tanımlayıcıları, yani sonucu açıklamak ve bir teori oluşturmaya yardımcı olmak için en iyi aday olanları bulmak istiyorum. Bu konuda …




9
Bir sinir ağı tahmininin güvenini nasıl belirleyebilirim?
Sorumu açıklamak için, girişin bir dereceye kadar gürültüye sahip olduğu ancak çıkışın olmadığı bir eğitim setim olduğunu varsayalım; # Training data [1.02, 1.95, 2.01, 3.06] : [1.0] [2.03, 4.11, 5.92, 8.00] : [2.0] [10.01, 11.02, 11.96, 12.04] : [1.0] [2.99, 6.06, 9.01, 12.10] : [3.0] Burada çıktı, eğer girişsiz ise …

3
Simpson'ın paradoksunu anlama: Andrew Gelman'ın cinsiyet ve boy üzerindeki gelirini gerileme örneği
Son blog yazılarından Andrew Gelman diyor ki: Simpsonların paradoksu için karşı tarafların ya da potansiyel sonuçların gerekli olduğunu düşünmüyorum. Bunu söylüyorum, çünkü biri manipüle edilemeyen veya manipülasyonların doğrudan ilgilenmediği değişkenlerle Simpson'un paradoksunu kurabilir. Simpson'un paradoksu, daha fazla yordayıcı eklerseniz, regresyon coef'lerinin değiştiği daha genel bir sorunun bir parçasıdır, işaretin saygısızlığı …

2
Regresyonda Wald testi (OLS ve GLM'ler): t - z dağılımı
(: Örn Wasserman (2006) Ben regresyon katsayıları için Wald testi asimptotik tutan aşağıdaki özelliği dayanmaktadır anlıyoruz İstatistik All , sayfa 153, 214-215): βregresyon katsayısı gösterir^se(β)regresyon katsayısı standart hata gösterir veβ, 0(ilgili bir değerdirβ0genellikle 0 katsayının 0'dan önemli ölçüde farklı olup olmadığını test etmek için). Boyutu * YaniαWald testidir: reddetmekH0zaman| W| …

3
Lars ve Glmnet neden Kement sorununa farklı çözümler sunuyor?
Daha iyi R paketleri anlamaya isteyen Larsve Glmnet: Kement sorunu çözmek için kullanılır, ( Değişkenler ve örnekleri için, bkz. www.stanford.edu/~hastie/Papers/glmnet.pdf , sayfa 3)m i n( β0β) ∈ Rp + 1[ 12 NΣi = 1N-( yben- β0- xTbenβ)2+ λ | | β||l1]mbenn(β0β)∈R,p+1[12N-Σben=1N-(yben-β0-xbenTβ)2+λ||β||l1]min_{(\beta_0 \beta) \in R^{p+1}} \left[\frac{1}{2N}\sum_{i=1}^{N}(y_i-\beta_0-x_i^T\beta)^2 + \lambda||\beta ||_{l_{1}} \right]pppN-N-N Bu …

5
Regresyonda Dengesiz Veriler için Örnekleme
Sınıflandırma bağlamında dengesiz verilerin ele alınması konusunda iyi sorular var , ancak insanların regresyon için örneklemek için ne yaptığını merak ediyorum. Sorunlu alanın işarete çok duyarlı olduğunu, ancak hedefin büyüklüğüne sadece biraz duyarlı olduğunu varsayalım. Bununla birlikte, büyüklük modelin sınıflandırma değil (pozitif ve negatif sınıflar) regresyon (sürekli hedef) olması gerektiği …

5
Ham veya dik polinom regresyonu?
Bir değişken gerileme isteyen üzerine . Bunu ham veya dik polinomları kullanarak yapmalı mıyım? Sitede bunlarla ilgilenen soruya baktım, ancak onları kullanma arasındaki farkın ne olduğunu gerçekten anlamıyorum. yyyx,x2,…,x5x,x2,…,x5x,x^2,\ldots,x^5 Neden sadece katsayılarını almak için "normal" bir gerileme yapamaz aitβiβi\beta_iy=∑5i=0βixiy=∑i=05βixiy=\sum_{i=0}^5 \beta_i x^i (p değerleri ve diğer tüm güzel şeyler ile birlikte) …

4
Bir korelasyonun altında yatan varsayımlar ve anlamlılık regresyon eğimi testleri arasındaki fark
Sorum, @whuber ile farklı bir sorunun yorumunda yapılan bir tartışmadan kaynaklandı . Özellikle, @whuber adlı kullanıcının yorumu şöyle: Sizi şaşırtabilmesinin bir nedeni, bir korelasyon testi ve regresyon eğimi testi altında yatan varsayımların farklı olmasıdır - bu yüzden korelasyon ve eğimin gerçekten aynı şeyi ölçtüğünü anlasak bile, p değerleri neden aynı …

1
Aynı kutu ve bıyık arsa ile Anscombe benzeri veri setleri (ortalama / std / median / MAD / dak / max)
EDIT: Bu soru şişirildiği için bir özet: aynı karma istatistiklere sahip (anlamlı, ortalama, orta derece ve ilişkili dağılımları ve gerileme) farklı anlamlı ve yorumlanabilir veri kümeleri bulmak. Anscombe dörtlüsü (bkz . Yüksek boyutlu verileri görselleştirme amacı? ), Aynı marjinal ortalama / standart sapma (dört ve dört , ayrı ayrı) ve …

2
Dengesiz veriler için lojistik regresyona ağırlık ekleme
Dengesiz verilerle lojistik bir regresyon modellemek istiyorum (9: 1). glmR işlevindeki ağırlıklar seçeneğini denemek istedim , ancak ne yaptığından% 100 emin değilim. Çıktı değişkenimin olduğunu söyleyelim c(0,0,0,0,0,0,0,0,0,1). şimdi "1" e 10 kat daha fazla ağırlık vermek istiyorum. bu yüzden ağırlık tartışmasını yapıyorum weights=c(1,1,1,1,1,1,1,1,1,1,1,10). Bunu yaptığımda, maksimum olasılığın hesaplanmasında dikkate alınacaktır. …

2
Regresyon çizgisini tahmin etmek için neden artıkların normalliği “hiç de önemli değil”?
Gelman ve Hill (2006) p46'ya şunu yazmaktadır: Genel olarak en az önemli olan regresyon varsayımı, hataların normal olarak dağılmış olmasıdır. Aslında, regresyon çizgisini tahmin etmek amacıyla (bireysel veri noktalarının tahmin edilmesine kıyasla), normallik varsayımı hiç de önemli değildir. Bu nedenle, birçok regresyon ders kitabının aksine, regresyon artıklarının normalliğinin teşhisini önermiyoruz. …


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.