80 boyutlu bir word2vec benzeri temsil kullanarak 128 gizli birimleri ile tek bir katman LSTM kullanarak duygu tahmini için 15000 tweet modelleme. 1 çağdan sonra bir iniş doğruluğu (rastgele% 38 =% 20) alıyorum. Daha fazla eğitim, eğitim doğruluğu tırmanmaya başladığında doğrulama doğruluğunun azalmaya başlamasını sağlar - açık bir aşırı sığdırma işareti.
Dolayısıyla düzenli hale getirmenin yollarını düşünüyorum. Gizli birimlerin sayısını azaltmamayı tercih ederim (128 şimdiden biraz düşük görünüyor). Şu anda% 50 olasılıkla bırakma kullanıyorum, ancak bu belki artabilir. Optimize edici, Keras için varsayılan parametreleri olan Adam'dır ( http://keras.io/optimizers/#adam ).
Veri setimdeki bu model için fazla sığdırmayı azaltmanın etkili yolları nelerdir?