«conv-neural-network» etiketlenmiş sorular

Evrişimli Sinir Ağları, üst üste binen bölgeler oluşturmak için yalnızca katmanlar arasındaki olası bağlantı alt kümelerinin bulunduğu bir tür sinir ağıdır. Genellikle görsel görevler için kullanılırlar.



4
Sinir ağları neden daha derin hale geliyor, ama daha da genişlemiyor?
Son yıllarda, evrişimli sinir ağları (ya da genel olarak derin sinir ağları) , 4 uzayda 7 katmandan ( AlexNet ) 1000 katmana ( Artık Ağlar) kadar uzanan son teknoloji ağlarla daha da derinleşmiştir . yıl. Daha derin bir ağdan gelen performanstaki artışın arkasındaki neden, daha karmaşık, doğrusal olmayan bir fonksiyonun …


2
Konvolüsyonel Sinir Ağları neden sınıflandırmak için bir Destek Vektör Makinesi kullanmıyor?
Son yıllarda, Konvolüsyonel Sinir Ağları (CNN'ler) bilgisayar vizyonunda nesne tanıma konusunda son teknoloji haline geldi. Tipik olarak, bir CNN birkaç evrimli tabakadan sonra bunu iki tam bağlı tabakadan oluşur. Bunun arkasındaki sezgisi, evrişimli katmanların girdi verilerinin daha iyi bir gösterimini öğrenmesi ve tam olarak bağlı olan katmanlar daha sonra bu …

4
Diğer özellik haritaları üretmek için özellik haritalarına çekirdekler nasıl uygulanır?
Evrişimli sinir ağlarının evrişim bölümünü anlamaya çalışıyorum. Aşağıdaki şekle bakarak: 4 özellik haritası elde etmek için girdi görüntüsüyle birlikte ettiğimiz 4 farklı çekirdeğin ( boyutunda) bulunduğu ilk evrişim katmanını anlama konusunda hiçbir sorunum yok .k×kk×kk \times k Anlamadığım şey, 4 özellik haritasından 6 özellik haritasına geçtiğimiz bir sonraki evrişim katmanıdır. …

6
CNN'de lokal cevap normalleşmesinin önemi
Imagenet ve diğer büyük CNN’lerin yerel tepki normalleştirme katmanlarını kullandığını buldum. Ancak onlar hakkında bu kadar fazla bilgi bulamıyorum. Ne kadar önemlidir ve ne zaman kullanılmaları gerekir? Gönderen http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers : "Yerel yanıt normalleştirme katmanı, yerel giriş bölgeleri üzerinde normalleştirerek bir tür" yanal engelleme "gerçekleştirir. ACROSS_CHANNELS modunda, yerel bölgeler, yakın kanallar …


4
Bilgisayarla görme ve evrişimsel sinir ağında çeviri değişmezliği nedir?
Bilgisayarla görüşme geçmişim yok, ancak bazı görüntü işleme ve evrimsel sinir ağları ile ilgili makale ve makaleleri okuduğumda, sürekli olarak translation invarianceya da translation invariant. Veya evrişim işleminin sağladığını çok okudum translation invariance? !! Ne anlama geliyor? Ben kendimi her zaman kendime çevirmişim gibi bir görüntüyü herhangi bir şekilde değiştirirsek, …

3
Havuzlama katmanları, bırakma katmanlarından önce veya sonra ekleniyor mu?
Konvolüsyonel bir sinir ağı (CNN) oluşturuyorum, burada bir konvolüsyon katmanım var, bunu bir havuz katmanı izlerim ve fazla uydurmayı azaltmak için bırakma uygulamak istiyorum. Bırakma katmanının havuzlama katmanından sonra uygulanması gerektiğini hissediyorum, ancak bunu destekleyecek hiçbir şeyim yok. Bırakma katmanını eklemek için doğru yer neresidir? Havuzlama katmanından önce mi sonra …


2
Konvolüsyonel bir sinir ağında “özellik haritası” nın (aka “aktivasyon haritası”) tanımı nedir?
Giriş Arkaplanı Konvolüsyonel bir sinir ağı içinde genellikle buna benzeyen genel bir yapıya / akışa sahibiz: giriş görüntüsü (yani 2B vektör x) (1. Konvolüsyon tabakası (Conv1) burada başlar ...) w12B görüntü boyunca bir dizi filtre ( ) döndürün (yani z1 = w1*x + b1nokta ürün çarpmalarını yapın), burada 3B'dir z1ve …

1
CNN regresyon mimarileri?
Girişin bir görüntü olduğu ve etiketin 80 ile 350 arasında sürekli bir değer olduğu bir regresyon problemi üzerinde çalışıyorum. Bir reaksiyon gerçekleştikten sonra görüntüler bazı kimyasallara sahip. Ortaya çıkan renk, geride kalan başka bir kimyasal maddenin konsantrasyonunu gösterir ve modelin çıktısı budur - o kimyasal maddenin konsantrasyonu. Görüntüler döndürülebilir, çevrilebilir, …

2
Doğrusal olmayanları doyurma terimi ne anlama geliyor?
Deep Convolutional Yapay Sinir Ağları ile ImageNet Sınıflandırması makalesini okuyordum ve 3. bölümde, Convolutional Sinir Ağlarının yapısını nasıl kullandıklarını açıkladıklarını açıklıyorlardı: doygun olmayan doğrusal olmayanf( x ) = m a x ( 0 , x ) .f(x)=mbirx(0,x).f(x) = max(0, x). çünkü eğitmek daha hızlıydı. Bu yazıda, CNN'lerde, sigmoidde ve hiperbolik …


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.