«feature-selection» etiketlenmiş sorular

İleri modellemede kullanmak için bir özellik alt kümesi seçme yöntemleri ve ilkeleri

2
Bayes tahmincisi seçim önyargısına karşı bağışıktır
Bayes tahmincileri seçim yanlılığından muaftır? Tahminleri, örneğin tüm genom dizisi verileri gibi yüksek boyutta tartışan çoğu makale sıklıkla seçim yanlılığı konusunu gündeme getirecektir. Seçim yanlılığı, binlerce potansiyel öngörücümüz olmasına rağmen, sadece birkaçının seçileceği ve seçilen birkaçında çıkarımın yapıldığı gerçeğinden kaynaklanmaktadır. Böylece işlem iki adımda gerçekleşir: (1) öngörücülerin bir alt kümesini …

1
Bayes dikeni ve slab cezalandırılmış yöntemlere karşı
Steven Scott'ın BSTS R paketi hakkındaki slaytlarını okuyorum (onları burada bulabilirsiniz: slaytlar ). Bir noktada, yapısal zaman serisi modeline birçok regresörün dahil edilmesinden bahsederken, regresyon katsayılarının başak ve slab önceliklerini tanıtır ve cezalandırılmış yöntemlerle karşılaştırıldığında daha iyi olduklarını söyler. Scott, 100 öngörücü içeren bir veri kümesi örneğine atıfta bulunarak şöyle …

1
Hem sırt hem de kement ayrı olarak iyi performans gösterdiğinde ancak farklı katsayılar üretildiğinde sonuçlar nasıl yorumlanır
Hem Kement hem de Ridge ile bir regresyon modeli kullanıyorum (0-5 arasında değişen ayrı bir sonuç değişkenini tahmin etmek için). Modeli çalıştırmadan önce, kullandığım SelectKBestyöntemi scikit-learngelen özellik kümesi azaltmak için 250 ile 25 . İlk özellik seçimi olmadan, hem Kement hem de Ridge daha düşük doğruluk puanlarına neden olur [bu, …

1
Sınıflandırma görevleri için özellik seçimi neden önemlidir?
Özellik seçimini öğreniyorum. Model oluşturmak için neden önemli ve yararlı olacağını görebiliyorum. Ancak denetimli öğrenme (sınıflandırma) görevlerine odaklanalım. Sınıflandırma görevleri için özellik seçimi neden önemlidir? Özellik seçimi ve denetimli öğrenme için kullanımı hakkında yazılmış çok sayıda literatür görüyorum, ancak bu beni şaşırtıyor. Özellik seçimi, atmak istediğiniz özellikleri tanımlamakla ilgilidir. Sezgisel …

1
Chi kare testi ne tür özellik seçimi için kullanılabilir?
Burada başkalarının yaygın olarak denetimli öğrenmede özellik seçimi wrt sonucu için ki kare testi kullanmak için ne yaptıklarını soruyorum. Doğru anlarsam, her özellik ile sonuç arasındaki bağımsızlığı test eder ve her özellik için testler arasındaki p değerlerini karşılaştırırlar mı? In http://en.wikipedia.org/wiki/Pearson%27s_chi-squared_test , Pearson ki-kare testi, setler arasında gözlemlenen herhangi bir …


2
Sınıflandırma problemlerinde sınıf ayrılabilirliğinin ölçüleri
Doğrusal ayrımcı öğrenicilerde sınıf ayrılığının iyi bir ölçüsünün bir örneği Fisher'in doğrusal ayrımcı oranıdır. Özellik kümelerinin hedef değişkenler arasında iyi bir sınıf ayrımı sağlayıp sağlamadığını belirlemek için başka yararlı metrikler var mı? Özellikle, hedef sınıfı ayırmayı en üst düzeye çıkarmak için iyi çok değişkenli girdi öznitelikleri bulmakla ilgileniyorum ve iyi …

1
Anomali tespiti için otomatik özellik seçimi
Anomali tespiti için özellikleri otomatik olarak seçmenin en iyi yolu nedir? Önemli olan çıkış: Ben normalde özellikleri insan uzmanlar tarafından seçilir bir algoritma olarak Anomali Detection tedavi aralık o kadar hatta birçok özellikleri ile siz - ( "anormal çıkış anormal giriş" gibi) olabilir birleştirerek çok daha küçük bir alt kümesi …

1
R / mgcv: te () ve ti () tensör ürünleri neden farklı yüzeyler üretir?
mgcvİçin paket Rtensör ürün etkileşimleri uydurma için iki işlevi vardır: te()ve ti(). İkisi arasındaki temel işbölümünü anlıyorum (doğrusal olmayan bir etkileşime uymak ve bu etkileşimi ana etkilere ve etkileşime ayırmak). Anlamadığım şey neden te(x1, x2)ve ti(x1) + ti(x2) + ti(x1, x2)(biraz) farklı sonuçlar üretebilir. MWE (uyarlanmıştır ?ti): require(mgcv) test1 <- …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
LASSO, eş doğrusal öngörücüler arasından nasıl seçim yapar?
Bir GLM LASSO modelinin yüksek derecede korelasyonlu olanlardan oluşan bir gruptan belirli bir yordayıcıyı neden seçtiğini ve neden en iyi alt küme özellik seçiminden farklı olduğunu sezgisel bir cevap arıyorum. Tibshirani 1996'daki Şekil 2'de gösterilen LASSO'nun geometrisinden, LASSO'nun yordayıcıyı daha büyük varyansla seçtiğine inanıyorum. Şimdi bir lojistik regresyon modeli için …

2
Yumuşak eşikleme ile Kement cezalandırması
Şimdiye kadar yüksek boyutlu veri kümeleriyle cezalandırılmış çok değişkenli analizde anladığımı özetlemeye çalışıyorum ve hala yumuşak eşikleme ile Kement (veya ) doğru bir tanımını elde mücadele ediyorum .L1L1L_1 Daha kesin olarak, genomik veriler ( tek nükleotid polimorfizmleri dahil olmak üzere 2 bloklu veri yapısını analiz etmek için seyrek PLS regresyonunu …

3
Kademeli regresyonun avantajları nelerdir?
Soruna yaklaşımımdaki çeşitlilik uğruna adım adım gerileme deniyorum. 2 sorum var: Kademeli regresyonun avantajları nelerdir? Özel güçlü yanları nelerdir? Özellikleri seçmek için aşamalı regresyon kullandığınız ve daha sonra seçilen tüm özellikleri bir arada alarak düzenli regresyon uyguladığınız hibrit yaklaşım hakkında ne düşünüyorsunuz?


2
LASSO'yu yalnızca özellik seçimi için kullanma
Makine öğrenimi dersimde, LASSO regresyonunun özellik seçimini gerçekleştirmede ne kadar iyi olduğunu öğrendik, çünkü regülasyonunu kullanıyor .l1l1l_1 Benim sorum: İnsanlar normalde LASSO modelini sadece özellik seçimi yapmak için mi kullanıyorlar (ve daha sonra bu özellikleri farklı bir makine öğrenme modeline dökmeye devam ediyorlar) mı yoksa tipik olarak hem özellik seçimini …

3
Lojistik regresyonda sıralama özellikleri
Lojistik Regresyon kullandım. Altı özelliğim var, bu sınıflandırıcıdaki sonucu diğer özelliklerden daha fazla etkileyen önemli özellikleri bilmek istiyorum. Bilgi Kazancı kullandım ama kullanılan sınıflandırıcıya bağlı olmadığı anlaşılıyor. Özellikleri belirli sınıflandırıcıya (Lojistik Regresyon gibi) göre önemlerine göre sıralamak için herhangi bir yöntem var mı? herhangi bir yardım çok takdir edilecektir.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.