«regression» etiketlenmiş sorular

Bir (veya daha fazla) "bağımlı" değişken ile "bağımsız" değişken arasındaki ilişkiyi analiz etme teknikleri.


5
Birçok bağımsız değişkenden önemli prediktörlerin tespit edilmesi
Üst üste binmeyen iki popülasyonun veri setinde (hastalar ve sağlıklı, toplam n=60n=60n=60 ) bulmak istiyorum ( üzerinden bağımsız değişkenler) sürekli bir bağımlı değişken için önemli yordayıcılar. Prediktörler arasındaki korelasyon mevcuttur. Öngörülerden herhangi birinin "gerçekte" bağımlı değişkenle ilişkili olup olmadığını öğrenmekle ilgileniyorum (bağımlı değişkeni mümkün olduğu kadar önceden tahmin etmek yerine). …

3
Diğer öngörücüleri dahil ettikten sonra işareti çeviren regresyon katsayıları
Hayal etmek Dört sayısal kestiricili doğrusal bir regresyon çalıştırıyorsunuz (IV1, ..., IV4) Öngörücü olarak sadece IV1 dahil edildiğinde standart beta +.20 Ayrıca IV2 ila IV4'ü dahil ettiğinizde, IV1'in standardize edilmiş regresyon katsayısının işareti -.25(örneğin negatif olur) ile çevrilir . Bu birkaç soruya yol açar: Terminoloji ile ilgili olarak, buna "baskılayıcı …

2
Doğrusal bir regresyon modelinin katsayılarını bulmak için gradyan inişine ihtiyacımız var mı?
Coursera materyalini kullanarak makine öğrenmeyi öğrenmeye çalışıyordum . Bu derste Andrew Ng, hata fonksiyonunu (maliyet fonksiyonu) en aza indirecek doğrusal regresyon modelinin katsayılarını bulmak için gradyan iniş algoritması kullanır. Doğrusal regresyon için degrade inişe ihtiyacımız var mı? Görünüşe göre hata fonksiyonunu analitik olarak farklılaştırabilir ve katsayıları çözmek için sıfıra ayarlayabilirim; …


2
L1 normalizasyonu L2'den daha iyi ne zaman işe yarayabilir?
Not: L1'in özellik seçimi özelliğine sahip olduğunu biliyorum. Özellik seçimi tamamen alakasız olduğunda hangisini seçeceğimi anlamaya çalışıyorum. Hangi düzenlileştirmenin (L1 veya L2) kullanılacağına nasıl karar verilir? L1 / L2 düzenlemelerinin her birinin artıları ve eksileri nelerdir? L1 ile özellik seçimi yapıp, bu seçilen değişkenlere L2 uygulayarak yapılması önerilir mi?

2
Negatif binom regresyon varsayımları nelerdir?
Büyük bir veri setiyle çalışıyorum (gizli, bu yüzden çok fazla paylaşamıyorum) ve sonuçta negatif bir binom regresyonunun gerekli olacağı sonucuna vardım. Daha önce hiç glm regresyonu yapmamıştım ve varsayımların ne olduğu hakkında net bir bilgi bulamıyorum. MLR için aynı mılar? Değişkenleri aynı şekilde dönüştürebilir miyim (Zaten doğal bir sayı olması …

6
Lojistik regresyon ve algılayıcı arasındaki fark nedir?
Andrew Ng'un Makine Öğrenimi ile ilgili ders notlarına bakıyorum . Notlar bize lojistik gerilemeyi ve ardından algılayıcısını tanıtıyor. Perceptron tarif edilirken, notlar sadece lojistik regresyon için kullanılan eşik fonksiyonunun tanımını değiştirdiğimizi söylüyor. Bunu yaptıktan sonra, sınıflandırma için Perceptron modelini kullanabiliriz. Öyleyse sorum şu - eğer bunun belirtilmesi gerekiyorsa ve Perceptron'u …


5
Çoklu doğrusal regresyon için en küçük kareler nasıl hesaplanır?
Basit doğrusal regresyon durumunda y=β0+β1xy=β0+β1xy=\beta_0+\beta_1x , en küçük kareler tahmincisini türetebilirsiniz , değerini tahmin için bilmek zorundaβ 0 β 1β^1=∑(xi−x¯)(yi−y¯)∑(xi−x¯)2β^1=∑(xi−x¯)(yi−y¯)∑(xi−x¯)2\hat\beta_1=\frac{\sum(x_i-\bar x)(y_i-\bar y)}{\sum(x_i-\bar x)^2}β^0β^0\hat\beta_0β^1β^1\hat\beta_1 olduğunu varsayalım , tahmin etmeden nasıl ? veya bu mümkün değil mi?β 1 β 2y=β1x1+β2x2y=β1x1+β2x2y=\beta_1x_1+\beta_2x_2β^1β^1\hat\beta_1β^2β^2\hat\beta_2

5
Makine öğrenmesinde hiyerarşik / iç içe geçmiş verilerle nasıl baş edilir
Sorunumu bir örnekle açıklayacağım. Bazı nitelikler verilen bir bireyin gelirini tahmin etmek istediğinizi varsayalım: {Yaş, Cinsiyet, Ülke, Bölge, Şehir}. Bunun gibi bir eğitim veri setine sahipsiniz train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

10
Kumarbazın yanlışlığına karşı ortalamaya regresyon
Bir yandan, ortalamaya doğru bir gerileme var, diğer yandan da kumarbazın yanıltmasına sahibim . Kumarbazın haksızlığı Miller ve Sanjurjo (2019) tarafından “rasgele dizilerin tersine çevrilmeye karşı sistematik bir eğilime sahip olduğu, yani benzer sonuçların çizgilerinin devam etmekten daha muhtemel olduğuna dair yanlış bir inanç” olarak tanımlanmaktadır. art arda defalarca sonraki …

1
Bir OLS modelindeki katsayıların (nk) serbestlik dereceli bir t-dağılımı izlediğinin kanıtı
Arka fon Regresyon modelimizde katsayılarının olduğu Sıradan En Küçük Kareler modelimiz olduğunu varsayalım , kkky=Xβ+ϵy=Xβ+ϵ\mathbf{y}=\mathbf{X}\mathbf{\beta} + \mathbf{\epsilon} burada bir olan katsayılarının vektörü, olan tasarım matrisi ile tanımlananββ\mathbf{\beta}(k×1)(k×1)(k\times1)XX\mathbf{X} X=⎛⎝⎜⎜⎜⎜⎜⎜11⋮1x11x21xn1x12…⋱………x1(k−1)⋮⋮xn(k−1)⎞⎠⎟⎟⎟⎟⎟⎟X=(1x11x12…x1(k−1)1x21…⋮⋮⋱⋮1xn1……xn(k−1))\mathbf{X} = \begin{pmatrix} 1 & x_{11} & x_{12} & \dots & x_{1\;(k-1)} \\ 1 & x_{21} & \dots & & \vdots \\ \vdots …

1
Lojistik regresyondan elde edilen değerler için standart hatalar nasıl hesaplanır?
Bir lojistik regresyon modelinden bir takılan değer tahmin ettiğinizde standart hatalar nasıl hesaplanır? I anlamına monte değerleri (Fishers bilgi matrisi içerir) olup katsayıları için. Sadece sayıların nasıl alınacağını öğrendim R(örneğin, burada r- help'de veya burada Stack Overflow'ta), ancak formülü bulamıyorum. pred <- predict(y.glm, newdata= something, se.fit=TRUE) Çevrimiçi kaynak sağlayabilirseniz (tercihen …

3
Lojistik regresyonda basit tahminlerin odds oranlarına yorumlanması
Lojistik regresyon kullanmaya biraz yeni geldim ve biraz da aynı olacağını düşündüğüm aşağıdaki değerleri yorumlamam arasındaki tutarsızlıkla karıştırdım: üstelleştirilmiş beta değerleri Beta değerleri kullanılarak sonucun tahmini olasılığı. Beslenme ve sigortanın hem ikili hem de servetin sürekli olduğu, kullandığım modelin basitleştirilmiş bir versiyonu: Under.Nutrition ~ insurance + wealth (Gerçek) modelim, sigorta …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.