Çoğu problem için sinir ağları kullanıyorum. Önemli olan, çoğu durumda kullanıcının deneyimi hakkında modelden daha fazla olmasıdır. NN'leri sevmem için bazı nedenler.
- Esnekler. Onlara istediğim kaybı atarım: menteşe kaybı, kare, çapraz entropi, siz adlandırın. Farklılaştığı sürece, ihtiyaçlarıma tam olarak uyan bir zarar bile tasarlayabilirim.
- Muhtemel olarak tedavi edilebilirler: Bayes sinir ağları, değişken Bayes, MLE / MAP, her şey orada. (Ancak bazı durumlarda daha zor.)
- Onlar hızlı. Çoğu MLP, iki matris çarpımı ve arada bir doğrusal olmayan uygulamalı bileşen olacaktır. Bunu bir SVM ile yendi.
Diğer noktalarından adım adım ilerleyeceğim.
Güçlü bir kurucu teori var
Bence, NN'ler bu durumda eşit derecede güçlü: onları olasılıklı bir çerçevede eğittiğiniz için. Bu, öncekilerin kullanımını ve Bayesian tedavisini (örneğin, varyasyon teknikleri veya yaklaşımlarla) mümkün kılar.
İkinci dereceden programlama sayesinde global olarak optimum seviyeye ulaşın
Bir takım hiperparametreler için. Bununla birlikte, iyi hps arayışı dışbükey değildir ve global optimum da bulup bulamadığınızı bilemezsiniz.
Uygun sayıda parametre seçmekte sorun yok
SVM'lerde, hiper parametreleri de seçmek zorundasınız.
Tahmini modeli saklamak için daha az hafıza gerekir
Destek vektörlerini saklamanız gerekir. SVM'ler genel olarak MLP'leri depolamak için daha ucuz olmayacaktır, duruma göre değişir.
Daha fazla okunaklı sonuç ve geometrik bir yorum elde edin
Bir MLP'nin üst katmanı, sınıflandırma durumunda lojistik bir regresyondur. Bu nedenle, geometrik bir yorum (hiper düzlemi ayıran) ve olasılıklı bir yorum da var.