«rnn» etiketlenmiş sorular

Tekrarlayan sinir ağı (RNN), birimler arasındaki bağlantıların yönlendirilmiş bir döngü oluşturduğu bir yapay sinir ağı sınıfıdır.


5
LSTM birimlerini hücrelere karşı anlama
Bir süredir LSTM'leri inceliyorum. Her şeyin nasıl çalıştığını yüksek düzeyde anlıyorum. Ancak, onları Tensorflow kullanarak uygulayacağım BasicLSTMCell'in bir dizi birim (yani num_units) parametresi gerektirdiğini fark ettim . Gönderen bu LSTMs arasında çok kapsamlı bir açıklama, tek bir olduğunu topladık LSTM birimi aşağıdakilerden biridir ki bu aslında bir GRU birimidir. Bunun …



1
Dikkat mekanizmaları tam olarak nedir?
Son birkaç yılda çeşitli Derin Öğrenme makalelerinde dikkat mekanizmaları kullanılmıştır. Open AI araştırma başkanı Ilya Sutskever onları coşkuyla övdü: https://towardsdatascience.com/the-fall-of-rnn-lstm-2d1594c74ce0 Purdue Üniversitesi'nden Eugenio Culurciello, RNN'lerin ve LSTM'lerin tamamen dikkat odaklı sinir ağları lehine terk edilmesi gerektiğini iddia etti: https://towardsdatascience.com/the-fall-of-rnn-lstm-2d1594c74ce0 Bu bir abartı gibi gözüküyor, ancak tamamen dikkat temelli modellerin sıra …

3
Egzersiz kaybı zamanla artar [çift]
Bu sorunun cevabı burada zaten var : Maliyet işlevindeki değişim nasıl olumlu olabilir? (1 cevap) Sinir ağım öğrenmediğinde ne yapmalıyım? (5 cevaplar) Geçen ay kapalı . 4 tip diziyi sınıflandırmak için bir model (Tekrarlayan Sinir Ağı) eğitimi alıyorum. Eğitimimi yürütürken eğitim grubumdaki örneklerin% 90'ından fazlasını doğru bir şekilde sınıflandırdığım noktaya …

4
Geri besleme RNN ve LSTM / GRU arasındaki fark
Zaman serisi verilerine uygulanacak farklı Tekrarlayan sinir ağı (RNN) mimarilerini anlamaya çalışıyorum ve RNN'leri tanımlarken sıklıkla kullanılan farklı isimlerle biraz karışıyorum. Uzun kısa süreli bellek (LSTM) ve Geçitli Tekrarlanan Birim (GRU) yapısı temelde bir geri besleme döngüsüne sahip bir RNN mi?

3
RNN / LSTM ağlarının ağırlıkları neden zaman içinde paylaşılıyor?
Son zamanlarda LSTM'lerle ilgilenmeye başladım ve ağırlıkların zaman içinde paylaşıldığını öğrenmek beni şaşırttı. Ağırlıkları zaman içinde paylaşırsanız, giriş zamanı dizilerinizin değişken bir uzunluk olabileceğini biliyorum. Paylaşılan ağırlıklarla antrenman yapmak için daha az parametreye sahipsiniz. Anladığım kadarıyla, bir başka öğrenme yöntemine karşı bir LSTM'ye dönüşmesinin nedeni, verilerinizde öğrenmek istediğiniz bir tür …


3
Sinir ağındaki örnekler, zaman adımları ve özellikler arasındaki fark
LSTM sinir ağında aşağıdaki blogdan geçiyorum: http://machinelearningmastery.com/understanding-stateful-lstm-recurrent-neural-networks-python-keras/ Yazar, giriş vektörü X'i LSTM'lerin farklı konfigürasyonu için [örnekler, zaman adımları, özellikler] olarak yeniden şekillendirir. Yazar yazar Aslında, harf dizileri ayrı özelliklerin bir zaman basamağı yerine bir unsurun zaman basamaklarıdır. Ağa daha fazla bağlam verdik, ancak beklediğimizden daha fazla sıralama yapmadık Ne anlama …

1
RNN'ler: BPTT ne zaman uygulanır ve / veya ağırlıklar güncellenir?
Ben (diğerleri arasında) Graves 'foneme sınıflandırma 2005 makalesi üzerinden etiketleme RNNs üst düzey uygulama anlamaya çalışıyorum . Sorunu özetlemek gerekirse: Tek cümlelerin (giriş) ses dosyalarından ve (çıktı) uzman etiketli başlangıç ​​zamanlarından, durma zamanlarından ve tek tek telefon seslerinin etiketlerinden (sessizlik gibi birkaç "özel" telefonemden oluşan büyük bir eğitim setimiz var, …
16 lstm  rnn 


3
Neden bir RNN'de zaman içinde geri yayılır?
Tekrarlayan bir sinir ağında, genellikle birkaç zaman adımında ilerler, ağı "açar" ve daha sonra girdi dizisi boyunca geri yayılırsınız. Neden sadece sekanstaki her bir adımdan sonra ağırlıkları güncellemiyorsunuz? (1 kısaltma uzunluğunun kullanılmasına eşdeğerdir, bu yüzden açılacak bir şey yoktur) Bu, yok olan degrade sorununu tamamen ortadan kaldırır, algoritmayı büyük ölçüde …

2
LSTM ünitelerine sahip RNN'ler neden “patlayan gradyanlardan” muzdarip olabilir?
RNN'lerin (ve özellikle LSTM üniteleri ile) nasıl çalıştığı hakkında temel bilgiye sahibim. Değerlerin akışını düzenleyen bir hücre ve birkaç kapı olan bir LSTM biriminin mimarisi hakkında resimsel bir fikrim var. Bununla birlikte, görünüşe göre, LSTM'nin geleneksel bir RNN zaman içinde geri yayılım kullanarak, eğitim sırasında ortaya çıkan "yok olan ve …


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.