«neural-networks» etiketlenmiş sorular

Yapay sinir ağları (YSA), biyolojik sinir ağlarına gevşek bir şekilde dayanan geniş bir hesaplama modelleri sınıfıdır. İleri beslemeli NN'leri ("derin" NN'ler dahil), evrişimli NN'leri, tekrarlayan NN'leri, vb.

1
Derin Öğrenmede Derin Artık Ağlar bağlamında bir Artık Öğrenme bloğu tam olarak nedir?
Görüntü Tanıma için Derin Artık Öğrenme makalesini okuyordum ve artık bir bloğun hesaplamalı olarak neleri gerektirdiğini% 100 kesin olarak anlamakta zorlanıyordum. Kağıtlarını okurken şekil 2 var: Artık Blok'un ne olması gerektiğini gösterir. Bir artık bloğun hesaplanması sadece aşağıdakilerle aynı mıdır: y=σ(W2σ(W1x+b1)+b2+x)y=σ(W2σ(W1x+b1)+b2+x) \mathbf{y} = \sigma( W_2 \sigma( W_1 \mathbf{x} + b_1 …

2
Çapraz entropi kaybı fonksiyonunun farklı tanımları
Nöral ağlar ve derin öğrenme noktaları com öğretici ile sinir ağlarını öğrenmeye başladım. Özellikle 3. bölümde çapraz entropi fonksiyonu hakkında bir bölüm vardır ve çapraz entropi kaybını şu şekilde tanımlar: C=−1n∑x∑j(yjlnaLj+(1−yj)ln(1−aLj))C=−1n∑x∑j(yjln⁡ajL+(1−yj)ln⁡(1−ajL))C = -\frac{1}{n} \sum\limits_x \sum\limits_j (y_j \ln a^L_j + (1-y_j) \ln (1 - a^L_j)) Bununla birlikte, Tensorflow girişini okurken, çapraz …


2
'Kıvrımlarla daha derine inme' bölümündeki DepthConcat işlemi nasıl çalışır?
Okuma Kıvrımlarla daha derine inerek , önerilen başlangıç ​​modüllerinin yapı taşı olan ve farklı büyüklükteki birden fazla tansörünün çıktısını birleştiren bir DepthConcat katmanıyla karşılaştım . Yazarlar buna "Filtre Birleştirme" adını vermektedir. Meşale için bir uygulama var gibi görünüyor , ama gerçekten ne yaptığını anlamıyorum. Birisi basit kelimelerle açıklayabilir mi?

1
Fisher Kesin Testi ve Hipergeometrik Dağılım
Balıkçı testini daha iyi anlamak istedim, bu yüzden f ve m erkek ve kadına karşılık gelen ve n ve y "soda tüketimine" karşılık gelen aşağıdaki oyuncak örneğini tasarladım: > soda_gender f m n 0 5 y 5 0 Açıkçası, bu büyük bir basitleştirme, ama bağlamın önüne geçmesini istemedim. Burada sadece …

3
Sinir ağlarını matematiksel olarak modelleme
Bir sinir ağı ve bir grafik model arasındaki matematiksel bağlantıyı kurmak için uğraşıyorum. Grafik modellerde fikir basittir: olasılık dağılımı, grafikteki uçurumlara göre çarpanlara ayrılır ve potansiyeller genellikle üstel ailenin olur. Sinir ağı için eşdeğer bir gerekçe var mı? Bir Kısıtlı Boltzmann makinesinde veya CNN'nin enerjilerinin bir fonksiyonu olarak birimler (değişkenler) …

2
ML'deki softmax fonksiyonu ile termodinamikteki Boltzmann dağılımı arasındaki bağlantı ne kadar derindir?
Sinir ağlarında gerçek sayıları olasılıklara dönüştürmek için yaygın olarak kullanılan softmax fonksiyonu, Boltzmann dağılımı ile aynı işlevdir, termodinamikte belirli bir sıcaklıkta T termal dengede parçacıkların enerjileri üzerindeki olasılık dağılımı. Bunun pratik olmasının açık sezgisel nedenlerini görebiliyorum: Girdi değerleri negatif olursa olsun, softmax bire karşılık gelen pozitif değerler verir. Her zaman …

2
CNN'de filtre boyutu, adım vb. Seçilmeli mi?
Stanford'un CS231N derslerine bakıyordum ve kafamı CNN mimarilerindeki bazı sorunların etrafına sarmaya çalışıyorum. Anlamaya çalıştığım şey, evrişim filtre boyutu ve adım gibi şeyler seçmek için bazı genel kurallar varsa veya bu bir bilimden daha fazla bir sanat mı? Anladığım havuzlama esas olarak bir çeşit çeviri değişmezliğini bir modele sokmak için …

3
Bir evrişimli sinir ağında son Softmax katmanından önce doğrusal olmama
Evrişimli sinir ağlarını çalışıyorum ve uygulamaya çalışıyorum, ancak bu sorunun genel olarak çok katmanlı algılayıcılar için geçerli olduğunu düşünüyorum. Ağımdaki çıkış nöronları her sınıfın aktivasyonunu temsil eder: en aktif nöron, belirli bir girdi için öngörülen sınıfa karşılık gelir. Eğitim için çapraz entropi maliyetini göz önünde bulundurmak için, ağın sonuna bir …



1
Kayıp fonksiyonunun ikinci derece yaklaşımı (Derin öğrenme kitabı, 7.33)
Goodfellow'un (2016) derin öğrenme kitabında, erken durmanın L2 düzenlenmesi ile eşdeğerliğinden bahsetti ( https://www.deeplearningbook.org/contents/regularization.html sayfa 247). Maliyet fonksiyonu jjj dereceden yaklaşımı şu şekilde verilir: J^( θ ) = J( w*) + 12( w - w*)T'H( w - w*)J^(θ)=J(w*)+12(w-w*)T'H(w-w*)\hat{J}(\theta)=J(w^*)+\frac{1}{2}(w-w^*)^TH(w-w^*) 'H'HHf( w + ϵ ) = f( w ) + f'( w …

2
CNN'ler neden FC katmanları ile sonuçlandırılır?
Anladığım kadarıyla CNN'ler iki bölümden oluşuyor. Özellik çıkarmayı yapan ilk bölüm (döngü / havuz katmanları) ve özelliklerden sınıflandırma yapan ikinci bölüm (fc katmanları). Tam bağlı sinir ağları en iyi sınıflandırıcılar olmadığından (yani çoğu zaman SVM'ler ve RF'ler tarafından daha iyi performans gösterirler), CNN'ler neden bir SVM veya RF diyelim, FC …

3
Konvolüsyonel Sinir Ağları Ölçeği Duyarlılığı
Örnek olarak, bir kişinin resmine dayanarak bir yaş tahmincisi oluşturduğumuzu varsayalım. Aşağıda takım elbiseli iki kişi var, ancak birincisi açıkça ikincisinden daha genç. (kaynak: tinytux.com ) Bunu ima eden birçok özellik vardır, örneğin yüz yapısı. Bununla birlikte, en çarpıcı özellik kafa boyutunun vücut boyutuna oranıdır : (kaynak: wikimedia.org ) Diyelim …

3
Uzayda keyfi bir noktaya L2 düzenlenmesi nasıl uygulanır?
İşte Ian Goodfellow'un Deep Learning kitabında okuduğum bir şey . Sinir ağları bağlamında, "L2 parametre normu cezası genellikle ağırlık azalması olarak bilinir. Bu düzenleme stratejisi ağırlıkları başlangıç ​​noktasına yakınlaştırır [...]. Daha genel olarak, parametreleri herhangi bir noktaya yakın olacak şekilde düzenleyebiliriz ancak model parametrelerini sıfıra doğru düzenlemek çok daha yaygındır. …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.