Özellik seçimini öğreniyorum. Model oluşturmak için neden önemli ve yararlı olacağını görebiliyorum. Ancak denetimli öğrenme (sınıflandırma) görevlerine odaklanalım. Sınıflandırma görevleri için özellik seçimi neden önemlidir?
Özellik seçimi ve denetimli öğrenme için kullanımı hakkında yazılmış çok sayıda literatür görüyorum, ancak bu beni şaşırtıyor. Özellik seçimi, atmak istediğiniz özellikleri tanımlamakla ilgilidir. Sezgisel olarak, bazı özellikleri atmak kendini yenilgiye uğratıyor gibi görünüyor: bilgiyi atıyor. Bilgi atmanın faydası yok gibi görünüyor.
Ve bazı özellikleri kaldırmak yardımcı olsa bile, bazı özellikleri atıp geri kalanını denetimli bir öğrenme algoritmasına beslesek, denetimli öğrenme algoritmasının yönetilmesine izin vermek yerine neden bunu kendimiz yapmalıyız? Bazı özellikler yardımcı olmazsa, iyi denetimli öğrenme algoritması bunu örtük olarak keşfetmemeli ve bu özelliği kullanmayan bir model öğrenmemelidir?
Öylesine sezgisel olarak, özellik seçiminin asla yardımcı olmayan ve bazen zarar verebilecek anlamsız bir egzersiz olmasını beklerdim. Ancak, bu kadar yaygın bir şekilde kullanıldığı ve yazıldığı gerçeği, sezgilerimin hatalı olduğundan şüphelenmemi sağlıyor. Denetimli öğrenme yaparken özellik seçiminin neden yararlı ve önemli olduğu herhangi bir sezgi sağlayabilir mi? Makine öğreniminin performansını neden geliştiriyor? Kullandığım sınıflandırıcıya bağlı mı?