Evet, görüntü olmayan verileri işlemek için derin öğrenme tekniklerini kullanabilirsiniz. Bununla birlikte, diğer model sınıfları sinyal işleme ve ilgili görevler dışındaki sinir ağları ile hala çok rekabetçidir.
Sinyal olmayan / sekans olmayan veriler üzerinde derin öğrenme yaklaşımları kullanmak için, genellikle basit bir ileri beslemeli çok katmanlı ağ kullanırsınız. Evrişimli katmanlara veya havuzlama katmanlarına gerek yoktur. Bunun dışındaki en iyi mimarinin çapraz doğrulama ile araştırılması gerekir ve derin NN'ler eğitmek için çok fazla hesaplama gerektirdiğinden keşfetmek zaman alıcı olabilir.
Kaggle yarışmalarında derin (-ish, tipik olarak ~ 5 katman) sinir ağlarını kullanmaya çalıştığım deneyimlerime göre:
Bırakma, düzenlileştirme ve doğruluğu artırmak için hala oldukça etkilidir
Giriş normalizasyonu - genellikle 0, standart sapma 1 anlamına gelir,
Gizli katman etkinleştirme işlevleri bir fark yaratabilir. ReLU, yok olan gradyanlarla ilgili bazı sorunları azaltmasına rağmen, tecrübelerime göre sinyal olmayan verilerle daha az sağlamdır ve başka bir form isteyeceksiniz. Sadece birkaç katınız varsa, sigmoid veya tanh hala iyi çalışır. Aksi takdirde, problemlerini "ölü" nöronlarla düzeltmeye çalışan sızıntılı ReLU, PReLU, ELU ve diğer ReLU varyantlarına bakın.
Adam, Adagrad veya RMSProp gibi derin öğrenme için tasarlanmış optimizerlerden yararlanın
Glorot gibi derin öğrenme ile çalışan bir ağırlık başlatma yaklaşımı kullanın.
Toplu Normalleştirme katmanlarını kullanmayı düşünün. Çok deneyimlediğim bir şey değil, ama diğer insanların bu yaklaşımla iyi performans gösterdiğini gördüm.
Tüm bunlara rağmen, XGBoost rutin olarak ve derin NN'leri minimum ayarlama ve eğitim çabasıyla kıyaslayabilir (elbette probleme ve sahip olduğunuz verilere bağlı olarak). Doğruluk sizin için her şeyse, garantili olmasa da, derin NN'lerin ve XGBoost gibi diğer modellerin tek teklerden daha iyi performans göstermesi mümkündür.