«neural-networks» etiketlenmiş sorular

Yapay sinir ağları (YSA), biyolojik sinir ağlarına gevşek bir şekilde dayanan geniş bir hesaplama modelleri sınıfıdır. İleri beslemeli NN'leri ("derin" NN'ler dahil), evrişimli NN'leri, tekrarlayan NN'leri, vb.

2
Yapay sinir ağlarının güçlendirilmesi
Son zamanlarda, adaboost, gradient boost gibi artırıcı algoritmalar öğrenmeye çalışıyordum ve en yaygın kullanılan zayıf öğrenicinin ağaçlar olduğu gerçeğini biliyordum. Gerçekten bilmek istiyorum, sinir ağlarını temel öğrenici olarak kullanmak için bazı başarılı örnekler (bazı makaleleri veya makaleleri kastediyorum) var mı?

3
Perceptron kuralından Gradient İnişe: Sigmoid aktivasyon işlevine sahip Perceptronların Logistic Regression'dan farkı nedir?
Temelde benim sorum çok katmanlı Algılayıcılarda, algılayıcıların bir sigmoid aktivasyon işlevi ile kullanıldığıdır. Böylece güncelleme kuralında olarak hesaplanır.y^y^\hat{y} y^= 11 + exp( - wTxben)y^=11+exp⁡(-wTxben)\hat{y} = \frac{1}{1+\exp(-\mathbf{w}^T\mathbf{x}_i)} Bu "sigmoid" Perceptron'un lojistik regresyondan farkı nedir? Tek katmanlı bir sigmoid algılayıcının, her ikisinin de kullanması anlamında bir lojistik regresyona eşdeğer olduğunu söyleyebilirim. güncelleme …



5
Kendi topolojilerini oluşturan modern sinir ağları
Standart sinir ağı algoritmalarının (backprop gibi) sınırlamaları, kaç tane gizli katman ve katman başına nöron istediğiniz bir tasarım kararı vermeniz gerektiğidir. Genellikle, öğrenme oranı ve genelleme bu seçimlere karşı oldukça hassastır. Bunun nedeni, kaskad korelasyonu gibi sinir ağı algoritmalarının ilgi uyandırmasının nedeni olmuştur. Minimal bir topoloji ile başlar (sadece giriş …


3
Egzersiz kaybı zamanla artar [çift]
Bu sorunun cevabı burada zaten var : Maliyet işlevindeki değişim nasıl olumlu olabilir? (1 cevap) Sinir ağım öğrenmediğinde ne yapmalıyım? (5 cevaplar) Geçen ay kapalı . 4 tip diziyi sınıflandırmak için bir model (Tekrarlayan Sinir Ağı) eğitimi alıyorum. Eğitimimi yürütürken eğitim grubumdaki örneklerin% 90'ından fazlasını doğru bir şekilde sınıflandırdığım noktaya …

2
Aktivasyon fonksiyonları olarak softplus yerine ReLU kullanmanın faydaları nelerdir?
Doğrultulmuş doğrusal birimlerin (ReLU), doğrusal ve hesaplanması daha hızlı oldukları için softplus birimlerinin yerini aldıkları sıklıkla belirtilir. Softplus hala spariteyi indükleme avantajına sahip mi yoksa ReLU ile sınırlı mı? Sormamın nedeni, ReLU'nun sıfır eğiminin olumsuz sonuçlarını merak etmem. Bu özellik, yeniden etkinleştirme olasılığını vermenin faydalı olabileceği birimleri sıfırda "yakalamaz" mı?

2
Toplu Normalleştirme, modelin eğitilirken doğruluğunu izlemek için hareketli ortalamaları nasıl ve neden kullanır?
Toplu normalizasyon (BN) kağıdını (1) okuyordum ve modelin doğruluğunu izlemek için hareketli ortalamalar kullanma ihtiyacını anlamadım ve bunun doğru bir şey olduğunu kabul etsem bile anlamıyorum tam olarak ne yaptıklarını. Anladığım kadarıyla (ki bu benim yanlışım) makalede, modelin eğitimi bittikten sonra istatistiklerini mini parti yerine nüfus istatistiklerini kullandığından bahsediliyor. Tarafsız …

2
Her bir değeri vektörün toplamına bölebilsek de, softmax fonksiyonu olasılıkları hesaplamak için neden kullanılıyor?
Bir vektör üzerine softmax fonksiyonunun uygulanması, "olasılıklar" ve ile arasında değerler üretecektir . 000111 Ancak her bir değeri vektörün toplamına bölebiliriz ve bu da ile arasında olasılıklar ve değerler üretir .000111 Burada cevabı okudum ama her iki fonksiyon da farklı olsa da bunun nedeninin farklı olabileceğinden kaynaklandığını söylüyor.


1
Bayes Ağlarından Yapay Sinir Ağlarına: çok değişkenli regresyon çok çıkışlı bir ağa nasıl aktarılabilir
Bayesian Hiyerarşik Doğrusal Model ile uğraşıyorum , burada onu tanımlayan ağ. YYY , bir süpermarketteki bir ürünün günlük satışlarını temsil eder (gözlemlenir). XXX , fiyatlar, promosyonlar, haftanın günü, hava durumu, tatiller dahil olmak üzere bilinen bir gerileme matrisidir. 1SSS , her bir ürünün bilinmeyen gizli envanter seviyesidir, bu da en …

4
Sinir Ağı için Kodlama Açısı Verileri
Hedef verilerin bir açı vektörü (0 ile 2 * pi arasında) olduğu bir sinir ağını (ayrıntılar önemli değil) eğitiyorum. Bu verilerin nasıl kodlanacağı konusunda tavsiye arıyorum. İşte şu anda çalışıyorum (sınırlı bir başarı ile): 1) C-1 kodlaması: Kurulum olası açılarını 1000 veya daha fazla farklı açılara oturttum ve sonra ilgili …

1
Sinir ağını sıralı verileri çıkarmak için nasıl kurarım?
Çıktı değişkeni sıralı olduğu bir şey tahmin etmek için ayarlanmış bir sinir ağı var. Aşağıda üç olası çıkış A <B <C kullanarak açıklayacağım. Kategorik verileri çıkarmak için bir sinir ağının nasıl kullanılacağı oldukça açıktır: çıktı, son (genellikle tamamen bağlı) katmanın sadece softmax'ıdır, kategori başına birdir ve tahmin edilen kategori en …

4
Geri besleme RNN ve LSTM / GRU arasındaki fark
Zaman serisi verilerine uygulanacak farklı Tekrarlayan sinir ağı (RNN) mimarilerini anlamaya çalışıyorum ve RNN'leri tanımlarken sıklıkla kullanılan farklı isimlerle biraz karışıyorum. Uzun kısa süreli bellek (LSTM) ve Geçitli Tekrarlanan Birim (GRU) yapısı temelde bir geri besleme döngüsüne sahip bir RNN mi?

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.