Bence bunlar 2 farklı şey,
Özellik Seçimi ile başlayalım :
Bu teknik, hedef değişkenin çoğunu açıklayan özellikleri seçmek için kullanılır (hedef değişkenle korelasyonu vardır) Bu test, model verilere uygulanmadan hemen önce yapılır.
Daha iyi açıklamak için bir örnek verelim: 10 özellik ve 1 hedef değişkeni var, 9 özellik hedef değişkenin% 90'ını açıklıyor ve 10 özellik birlikte hedef değişkenin% 91'ini açıklıyor. Yani 1 değişken çok fazla fark yaratmıyor, bu yüzden modellemeden önce bunu kaldırma eğilimindesiniz (iş için de özneldir). Ben de Predictor Önemi olarak adlandırılabilir.
Şimdi Özellik Çıkarma hakkında konuşalım ,
Denetimsiz Öğrenme, görüntülerde konturların çıkarılması, bir metinden Bi gram çıkarılması, konuşulan metnin kaydedilmesinden fonemlerin çıkarılmasında kullanılır. Veri sözlüğü yok gibi veriler hakkında hiçbir şey bilmediğinizde, verilerin anlaşılabilir formatta olmadığı anlamına gelen çok fazla özellik. Ardından, verilerin çoğunu açıklayan bazı özellikleri elde etmek için bu tekniği uygulamayı deneyin. Özellik çıkarma, boyutların azaltılması sürecinde bazı bilgilerin kaybolduğu için, genellikle geri döndürülemeyen özelliklerin dönüştürülmesini içerir.
Özellikleri ayıklamak için verilen verilere Özellik Çıkarma uygulayabilir ve ardından iyi sonuçlarla iyi bir model oluşturmaya yardımcı olabilecek altkümeyi seçmek için Hedef Değişken ile ilgili Özellik Seçimi uygulayabilirsiniz.
daha iyi anlaşılması için bu Link-1 , Link-2'den geçebilirsiniz .
bunları R, Python, SPSS'de uygulayabiliriz.
daha fazla açıklamaya ihtiyacınız olursa bana bildirin.