«conv-neural-network» etiketlenmiş sorular

Evrişimli Sinir Ağları, üst üste binen bölgeler oluşturmak için yalnızca katmanlar arasındaki olası bağlantı alt kümelerinin bulunduğu bir tür sinir ağıdır. Genellikle görsel görevler için kullanılırlar.

2
Sinir ağlarında uygunluğun ötesinde evrişimin matematiksel nedenleri var mı?
Evrişimli sinir ağlarında (CNN), her adımdaki ağırlık matrisi, evrişime devam etmeden önce çekirdek matrisini elde etmek için satırlarını ve sütunlarını döndürür. Bu Hugo Larochelle tarafından video dizisiyle açıklanmıştır burada : Gizli haritaların hesaplanması, bir çekirdek matrisi [...] kullanarak önceki katmandaki bir kanalla ayrı bir kıvrım yapmaya karşılık gelir ve bu …


2
CNN xavier ağırlık başlatma
Bazı derslerde, "Xavier" kilo başlatmanın (kağıt: Derin ileri beslemeli sinir ağlarını eğitmenin zorluğunu anlamanın ) sinir ağlarının ağırlıklarını başlatmanın etkili bir yolu olduğunu ifade ettim . Tamamen bağlı katmanlar için bu öğreticilerde temel bir kural vardı: Var(W)=2nin+nout,simpler alternative:Var(W)=1ninVar(W)=2nin+nout,simpler alternative:Var(W)=1ninVar(W) = \frac{2}{n_{in} + n_{out}}, \quad \text{simpler alternative:} \quad Var(W) = \frac{1}{n_{in}} …





5
Sinir ağları / derin öğrenme tasarlamak ve uygulamak için görsel bir araç var mı? [kapalı]
Kapalı. Bu soru konu dışı . Şu anda cevapları kabul etmiyor. Bu soruyu geliştirmek ister misiniz? Sorunuzu güncelleyin o yüzden -konu üzerinde Çapraz doğrulanmış için. 10 ay önce kapalı . Kahve, Theano, TensorFlow, keras gibi makine öğrenimi ve derin öğrenme için çok sayıda kütüphane olduğunu biliyorum ... Ama benim için …

4
CNN'de örnekleme ve devrik evrişim aynı mıdır?
Hem "üst örnekleme" hem de "devrik evrişim" terimleri, "dekonvolüsyon" yaparken kullanılır (<- iyi bir terim değil, burada kullanayım). Başlangıçta, aynı anlama geldiklerini düşündüm, ancak bu makaleleri okuduktan sonra farklı oldukları bana geliyor. Herkes açıklığa kavuşturabilir mi? Geçişli evrişim : Görünüşe göre konvoltonal sinir ağı yoluyla kaybı propoagize ettiğimizde kullanabiliriz. http://andrew.gibiansky.com/blog/machine-learning/convolutional-neural-networks/#Backward-Propagation …

1
Derin Öğrenmede Derin Artık Ağlar bağlamında bir Artık Öğrenme bloğu tam olarak nedir?
Görüntü Tanıma için Derin Artık Öğrenme makalesini okuyordum ve artık bir bloğun hesaplamalı olarak neleri gerektirdiğini% 100 kesin olarak anlamakta zorlanıyordum. Kağıtlarını okurken şekil 2 var: Artık Blok'un ne olması gerektiğini gösterir. Bir artık bloğun hesaplanması sadece aşağıdakilerle aynı mıdır: y=σ(W2σ(W1x+b1)+b2+x)y=σ(W2σ(W1x+b1)+b2+x) \mathbf{y} = \sigma( W_2 \sigma( W_1 \mathbf{x} + b_1 …

2
'Kıvrımlarla daha derine inme' bölümündeki DepthConcat işlemi nasıl çalışır?
Okuma Kıvrımlarla daha derine inerek , önerilen başlangıç ​​modüllerinin yapı taşı olan ve farklı büyüklükteki birden fazla tansörünün çıktısını birleştiren bir DepthConcat katmanıyla karşılaştım . Yazarlar buna "Filtre Birleştirme" adını vermektedir. Meşale için bir uygulama var gibi görünüyor , ama gerçekten ne yaptığını anlamıyorum. Birisi basit kelimelerle açıklayabilir mi?

2
CNN'de filtre boyutu, adım vb. Seçilmeli mi?
Stanford'un CS231N derslerine bakıyordum ve kafamı CNN mimarilerindeki bazı sorunların etrafına sarmaya çalışıyorum. Anlamaya çalıştığım şey, evrişim filtre boyutu ve adım gibi şeyler seçmek için bazı genel kurallar varsa veya bu bir bilimden daha fazla bir sanat mı? Anladığım havuzlama esas olarak bir çeşit çeviri değişmezliğini bir modele sokmak için …

3
Bir evrişimli sinir ağında son Softmax katmanından önce doğrusal olmama
Evrişimli sinir ağlarını çalışıyorum ve uygulamaya çalışıyorum, ancak bu sorunun genel olarak çok katmanlı algılayıcılar için geçerli olduğunu düşünüyorum. Ağımdaki çıkış nöronları her sınıfın aktivasyonunu temsil eder: en aktif nöron, belirli bir girdi için öngörülen sınıfa karşılık gelir. Eğitim için çapraz entropi maliyetini göz önünde bulundurmak için, ağın sonuna bir …


2
CNN'ler neden FC katmanları ile sonuçlandırılır?
Anladığım kadarıyla CNN'ler iki bölümden oluşuyor. Özellik çıkarmayı yapan ilk bölüm (döngü / havuz katmanları) ve özelliklerden sınıflandırma yapan ikinci bölüm (fc katmanları). Tam bağlı sinir ağları en iyi sınıflandırıcılar olmadığından (yani çoğu zaman SVM'ler ve RF'ler tarafından daha iyi performans gösterirler), CNN'ler neden bir SVM veya RF diyelim, FC …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.