Tekrarlayan bir mimariyi bir EEG bağlamında nasıl yorumlayacağımı merak ediyorum. Özellikle bunu tekrarlayan bir CNN (LSTM gibi mimarilerin aksine) olarak düşünüyorum, ancak belki de diğer tekrarlayan ağ türleri için de geçerlidir.
R-CNN'leri okuduğumda, bunlar genellikle görüntü sınıflandırma bağlamlarında açıklanır. Genellikle "zaman içinde öğrenme" veya "zaman-1'in mevcut girdi üzerindeki etkisi de dahil" olarak tanımlanırlar
Bu yorum / açıklama EEG verileriyle çalışırken gerçekten kafa karıştırıcı oluyor. EEG verilerinde kullanılan bir R-CNN örneği burada bulunabilir
Her biri 1x512 dizisinden oluşan eğitim örneklerine sahip olduğumu düşünün. Bu dizi, ardışık 512 zaman noktasında 1 elektrot için bir voltaj okuması yakalar. Bunu Tekrarlayan bir CNN'ye girdi olarak kullanırsam (1D kıvrımları kullanarak), modelin tekrarlayan kısmı aslında "zamanı" yakalamaz, değil mi? (daha önce tartışılan açıklamaların / açıklamaların ima ettiği gibi) Çünkü bu bağlamda zaman dizinin ikinci boyutu tarafından zaten yakalanmıştır
Peki böyle bir kurulumla, ağın tekrarlayan kısmı, normal bir CNN'nin (zaman değilse) yapamayacağını modellememize ne sağlar?
Bana öyle geliyor ki, tekrarlayan sadece bir kıvrım yapmak, sonucu orijinal girdiye eklemek ve tekrar kıvrılmak demektir. Bu, x yinelenen adım sayısı için tekrarlanır. Bu süreç aslında ne avantaj sağlıyor?