Dikey olarak istiflenmiş LSTM katmanlarına atıfta bulunduğunuzu düşünüyorum (yatay eksenlerin zaman ekseni olduğunu varsayarak).
Bu durumda LSTM'yi istiflemenin ana nedeni, daha yüksek model karmaşıklığına izin vermektir. Basit bir feedforward net olması durumunda, bazı makine öğrenim görevlerinde kullanılacak girdi verilerinin hiyerarşik bir özellik gösterimini oluşturmak için katmanları yığıyoruz. Aynısı, yığılmış LSTM'ler için de geçerlidir.
Her zaman adımında, tekrarlayan giriş dışında, bir LSTM. Girdi zaten bir LSTM katmanından (veya feedforward katmanından) kaynaklanıyorsa, geçerli LSTM geçerli girişin daha karmaşık bir özelliğini temsil edebilir.
Şimdi, özellik girişi ile LSTM katmanı arasında ileri besleyici bir katmana sahip olmak ve başka bir LSTM katmanına sahip olmak arasındaki fark, ileri beslemeli bir katmanın (tam olarak bağlı bir kat demek) önceki zaman adımından geri bildirim almaması ve bu nedenle kesin olarak hesaba katmamasıdır. kalıpları. Yerinde bir LSTM'ye sahip olmak (örneğin, istiflenmiş bir LSTM gösterimi kullanarak) her katmanda daha karmaşık giriş kalıpları tanımlanabilir