İstatistiksel bir öğrenme algoritması çalıştırmadan önce özellik seçim yöntemlerini (Rastgele ormanlar önem değeri veya Tek değişkenli özellik seçim yöntemleri vb.) Kullanmayla ilgili bir sorum var.
Aşırı kilo vermekten kaçındığımızı biliyoruz, ağırlık vektörleri üzerinde düzenleyici ceza verebiliriz.
Eğer lineer regresyon yapmak istersem, o zaman L2 veya L1 hatta Elastik ağ regülasyon parametrelerini tanıtabilirim. Seyrek çözümler elde etmek için, L1 cezası özellik seçiminde yardımcı olur.
Öyleyse, Kement gibi L1 düzenlenmesi regresyonunu çalıştırmadan önce özellik seçimi yapmak hala gerekli mi? Teknik olarak Kement, özellikleri L1 cezasıyla azaltmama yardımcı oluyor, o zaman neden algoyu çalıştırmadan önce özellik seçimi gerekiyor?
Anova'dan sonra SVM yapmanın sadece SVM kullanmaktan daha iyi performans verdiğini söyleyen bir araştırma makalesini okudum. Şimdi soru şudur: SVM, doğal olarak L2 normu kullanarak düzenlileştirme yapar. Marjı en üst düzeye çıkarmak için ağırlık vektörü normunu en aza indirir. Bu yüzden nesnel işlevinde düzenlileşme yapıyor. Öyleyse SVM gibi teknik algoritmalar, özellik seçme yöntemleri hakkında rahatsız edilmemelidir ?. Ancak raporda, normal SVM daha güçlü olmadan önce Tek Değişkenli Özellik seçimi yapıldığını söylüyor.
Düşüncesi olan var mı?