Tüm RNN'lerin tekrarlayan katmandaki geri besleme döngüleri vardır. Bu, 'bellekte' bilgileri zaman içinde tutmalarını sağlar. Ancak, uzun süreli zamansal bağımlılıkları öğrenmeyi gerektiren sorunları çözmek için standart RNN'leri eğitmek zor olabilir. Bunun nedeni, kayıp fonksiyonunun gradyanının zamanla katlanarak azalmasıdır (yok olan gradyan problemi olarak adlandırılır). LSTM ağları, standart birimlere ek olarak özel birimler kullanan bir RNN türüdür. LSTM üniteleri uzun süre bellekte bilgi tutabilen bir 'bellek hücresi' içerir. Bilgilerin belleğe ne zaman gireceğini, ne zaman çıktısını ve ne zaman unutulduğunu kontrol etmek için bir dizi kapı kullanılır. Bu mimari, daha uzun vadeli bağımlılıkları öğrenmelerini sağlar. GRU'lar LSTM'lere benzer, ancak basitleştirilmiş bir yapı kullanır.
Bu makale iyi bir genel bakış sunmaktadır:
Chung ve diğ. (2014) . Geçit Modellemesinde Geçitli Tekrarlanan Sinir Ağlarının Ampirik Değerlendirilmesi.