«backpropagation» etiketlenmiş sorular

"Hataların geriye doğru yayılması" nın kısaltması olan backpropagation, gradyan inişi gibi bir optimizasyon yöntemiyle birlikte kullanılan yapay sinir ağlarını eğitmek için yaygın bir yöntemdir.

2
Sinir ağındaki ağırlıkların başlatılmasında kesik normal dağılımın yararı nedir?
Bir ileri beslemeli sinir ağında bağlantı ağırlıkları başlatılırken, öğrenme algoritmasının kırılamayacağı simetrilerden kaçınmak için bunları rastgele başlatmak önemlidir. Çeşitli yerlerde gördüğüm öneri (örneğin, TensorFlow'un MNIST eğitiminde ), kesik normal dağılımı, standart sapması kullanarak kullanmaktır ; burada , nöron tabakası verildi.1N−−√1N\dfrac{1}{\sqrt{N}}NNN Standart sapma formülünün geri çoğaltılmış gradyanların çok hızlı çözülmemesini veya …

2
LSTM ünitelerine sahip RNN'ler neden “patlayan gradyanlardan” muzdarip olabilir?
RNN'lerin (ve özellikle LSTM üniteleri ile) nasıl çalıştığı hakkında temel bilgiye sahibim. Değerlerin akışını düzenleyen bir hücre ve birkaç kapı olan bir LSTM biriminin mimarisi hakkında resimsel bir fikrim var. Bununla birlikte, görünüşe göre, LSTM'nin geleneksel bir RNN zaman içinde geri yayılım kullanarak, eğitim sırasında ortaya çıkan "yok olan ve …

1
Parti normalizasyonu ile geri yayılımın matris formu
Parti normalizasyonu , derin sinir ağlarında önemli performans iyileştirmeleri ile kredilendirilmiştir. İnternetteki birçok malzeme, aktivasyon bazında nasıl uygulanacağını göstermektedir. Zaten matris cebiri kullanarak backprop uyguladım ve yüksek seviyeli dillerde çalıştığımı Rcpp(yoğun matris çarpımı için (ve sonunda forGPU'lara güvenerek) çalışırken , her şeyi kopyalayıp-döngülere başvurmak muhtemelen kodumu yavaşlatacaktır) büyük bir acıya …

2
Zaman içinde kesilmiş geri yayılım (RNN / LSTM) kullanırken ilk kalıpların yakalanması
Çoktan bire yaklaşım olan duyarlılık analizi yapmak için bir RNN / LSTM kullandığımı varsayalım ( bu bloga bakınız ). Ağ, zaman içinde kesilmiş bir geri yayılım (BPTT) ile eğitilir; burada ağ, her zamanki gibi son 30 adımda açılır. Benim durumumda sınıflandırmak istediğim metin bölümlerimin her biri, açılmakta olan 30 adımdan …

2
Minibatch gradyan inişi, bir toplu işteki her örnek için ağırlıkları nasıl günceller?
Bir partide 10 örnek söylersek, her örnek için kaybı toplayabileceğimizi anlıyorum, ancak backpropagation her örnek için ağırlıkların güncellenmesinde nasıl çalışır? Örneğin: Örnek 1 -> kayıp = 2 Örnek 2 -> kayıp = -2 Bu ortalama 0 (E = 0) kaybıyla sonuçlanır, bu yüzden bu her bir ağırlığı nasıl güncelleyip birleşir? …


1
Bir evrişim sinir ağı eğitimi
Şu anda yüzleri tanımak için evrişim sinir ağlarını kullanan bir yüz tanıma yazılımı üzerinde çalışıyorum. Okumalarıma dayanarak, eğitim sırasında zaman kazanmak için evrişimli bir sinir ağının ağırlık paylaştığını topladım. Ancak, bir geri yayılımı nasıl adapte eder, böylece bir evrişim sinir ağında kullanılabilir. Geri çoğaltmada, ağırlıkların eğitilmesi için buna benzer bir …

2
Pretraining nedir ve sinir ağı nasıl pretrain?
Ön eğitimin konvansiyonel eğitim ile ilgili bazı sorunlardan kaçınmak için kullanıldığını anlıyorum. Ben bir otoencoder ile backpropagation kullanırsanız, backpropagation yavaş olduğu için zaman sorunları ile karşılaşacağımı biliyorum ve ayrıca yerel optima sıkışmış olabilir ve bazı özellikleri öğrenmek değil. Anlamadığım şey, bir ağı nasıl önişlediğimiz ve ön işlem yapmak için özel …

1
Skipgram word2vec için degradeler
Stanford NLP derin öğrenme sınıfının yazılı ödev problemlerindeki problemleri yaşıyorum http://cs224d.stanford.edu/assignment1/assignment1_soln 3a'nın cevabını anlamaya çalışıyorum, burada orta kelime için vektörün türevini arıyorlar. Tahmin edilen bir kelime vektörü verildiğini varsayın vcvcv_{c}skipgram için orta kelimeye c karşılık gelir ve word2vec modellerinde bulunan softmax fonksiyonu ile kelime tahmini yapılır. y^Ö= p ( o …
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.