«neural-networks» etiketlenmiş sorular

Yapay sinir ağları (YSA), biyolojik sinir ağlarına gevşek bir şekilde dayanan geniş bir hesaplama modelleri sınıfıdır. İleri beslemeli NN'leri ("derin" NN'ler dahil), evrişimli NN'leri, tekrarlayan NN'leri, vb.

1
ReLU aktivasyonu SVM'ye eşit olan tek katmanlı NeuralNetwork?
Diyelim ki n girdi ve tek çıktı (ikili sınıflandırma görevi) olan basit bir tek katmanlı sinir ağım var. Çıkış düğümündeki etkinleştirme işlevini sigmoid işlevi olarak ayarlarsam, sonuç Lojistik Regresyon sınıflandırıcısı olur. Aynı senaryoda, çıkış etkinleştirme işlemini ReLU (düzeltilmiş doğrusal birim) olarak değiştirirsem, sonuçtaki yapı bir SVM ile aynı mı yoksa …

1
Basit bir algılayıcı nasıl çekirdeklendirilir?
Doğrusal olmayan sınırlarla sınıflandırma problemleri basit bir algılayıcıyla çözülemez . Aşağıdaki R kodu açıklama amaçlıdır ve Python'daki bu örneğe dayanmaktadır ): nonlin <- function(x, deriv = F) { if (deriv) x*(1-x) else 1/(1+exp(-x)) } X <- matrix(c(-3,1, -2,1, -1,1, 0,1, 1,1, 2,1, 3,1), ncol=2, byrow=T) y <- c(0,0,1,1,1,0,0) syn0 <- …

2
Pretraining nedir ve sinir ağı nasıl pretrain?
Ön eğitimin konvansiyonel eğitim ile ilgili bazı sorunlardan kaçınmak için kullanıldığını anlıyorum. Ben bir otoencoder ile backpropagation kullanırsanız, backpropagation yavaş olduğu için zaman sorunları ile karşılaşacağımı biliyorum ve ayrıca yerel optima sıkışmış olabilir ve bazı özellikleri öğrenmek değil. Anlamadığım şey, bir ağı nasıl önişlediğimiz ve ön işlem yapmak için özel …

1
CNN'deki evrişim operatörlerinin sayısı nasıl belirlenir?
Konvolüsyonel Sinir Ağları (CNN) ile nesne sınıflandırması gibi bilgisayar görme görevlerinde, ağ çekici bir performans sağlar. Ama evrişimsel katmanlarda parametreleri nasıl ayarlayacağımdan emin değilim. Örneğin 480x480, birinci evrişimsel katman gibi bir gri tonlamalı görüntü ( ), 10 sayısının evrişimsel operatörlerin sayısı anlamına 11x11x10geldiği gibi evrişimsel bir operatör kullanabilir. Soru, CNN'deki …

4
Sinir ağı, auto.arima ve ets ile R zaman serisi tahmini
Sinir ağlarını zaman serilerini tahmin etmek için kullanma hakkında biraz duydum. Zaman serilerimi tahmin etmek için hangi yöntemin (günlük perakende veriler) daha iyi olduğunu nasıl karşılaştırabilirim: auto.arima (x), ets (x) veya nnetar (x). Auto.arima'yı AIC veya BIC ile ets ile karşılaştırabilirim. Fakat onları sinir ağlarıyla nasıl karşılaştırabilirim? Örneğin: > dput(x) …

1
Sağkalım analizi için CPH, hızlandırılmış başarısızlık süresi modeli veya sinir ağlarının karşılaştırılması
Hayatta kalma analizinde yeniyim ve yakın zamanda bunu belirli bir amaç doğrultusunda yapmanın farklı yolları olduğunu öğrendim. Bu yöntemlerin gerçek uygulaması ve uygunluğu ile ilgileniyorum. Zaman, statü ve diğer tıbbi veriler göz önüne alındığında bir hastanın hayatta kalması için yöntemler olarak geleneksel Cox Orantılı Tehlikeler , Hızlandırılmış başarısızlık süresi modelleri …

4
Sinir ağı ağırlıklarının yakınsaması
Sinir Ağımın ağırlıklarının 500 tekrardan sonra bile yakınsamadığı bir duruma geldim. Sinir ağım 1 Giriş katmanı, 1 Gizli katman ve 1 Çıkış Katmanı içeriyor. Bunlar giriş katmanında yaklaşık 230, gizli katmanda 9 düğüm ve çıkış katmanında 1 çıkış düğümüdür. Erken durdurma koşulu yaparsam bilmek istedim (100 yinelemeden sonra sinir ağı …

2
Lojistik işlevle dönüştürülmüş bir Gauss rasgele değişkeninin beklenen değeri
Hem lojistik fonksiyon hem de standart sapma genellikle gösterilir . Standart sapma için ve kullanacağım .σσ\sigmaσ(x)=1/(1+exp(−x))σ(x)=1/(1+exp⁡(−x))\sigma(x) = 1/(1+\exp(-x))sss Ben ortalama ve standart sapma biliyorum rastgele bir giriş ile bir lojistik nöron var . Umarım ortalamadaki fark bazı Gauss gürültüsü ile iyi bir şekilde tahmin edilebilir. Dolayısıyla, hafif bir gösterim kötüye …

2
AlphaZero belgesindeki Dirichlet gürültüsünün amacı
DeepMind'in AlphaGo Zero ve AlphaZero makalelerinde, Monte Carlo Ağacı Arama'daki kök düğümden (tahta durumu) önceki eylem olasılıklarına Dirichlet gürültüsü eklemeyi açıklarlar : Kök düğümündeki önceki olasılıklara Dirichlet gürültüsü eklenerek ek keşifler elde edilir s0s0s_0, özellikle , burada ve ; bu gürültü tüm hareketlerin denenmesini sağlar, ancak arama yine de kötü …

3
Girişler koşullu olarak bağımsız olduğunda hiper düzlemler verileri en iyi şekilde sınıflandırır - Neden?
Derin Öğrenme ve Bilgi Darboğaz Prensibi adlı makalede yazarlar bölüm II A) 'da belirtilmektedir: Tek nöronlar, yalnızca lineer olarak ayrılabilir girdileri sınıflandırır, çünkü giriş alanlarında sadece hiper düzlemler uygulayabilirler u=wh+bu=wh+bu = wh+b. Girişler koşullu olarak bağımsız olduğunda hiper düzlemler verileri en iyi şekilde sınıflandırabilir. Bunu göstermek için aşağıdakileri elde ederler. …

2
WaveNet gerçekten genişletilmiş bir evrişim değil, değil mi?
Son WaveNet gazetesinde yazarlar, modellerini genişletilmiş kıvrım katmanlarının yığılmış katmanları olarak adlandırıyorlar. Ayrıca, 'düzenli' konvolüsyonlar ve dilate konvolüsyonlar arasındaki farkı açıklayan aşağıdaki çizelgeleri hazırlarlar. Düzenli kıvrımlar şöyle görünür: Bu, filtre boyutu 2 ve adım 4 olan bir katmandır. Daha sonra, modelleri tarafından kullanılan, genişletilmiş kıvrımlar olarak adlandırdıkları bir mimari gösterirler. …

1
SVM'ler = Şablon Eşleştirme nasıl?
SVM'leri okudum ve bir optimizasyon problemi çözdüklerini ve maksimum marj fikrinin çok makul olduğunu öğrendim. Şimdi, çekirdekleri kullanarak, doğrusal olmayan ayırma sınırlarını bile bulabilirler ki bu harikaydı. Şimdiye kadar, SVM'lerin (özel bir çekirdek makinesi) ve çekirdek makinelerinin sinir ağlarıyla nasıl ilişkili olduğu hakkında hiçbir fikrim yok mu? Yorumlarına düşünün Yann …

1
L2 ile RNN Düzenlemesi öğrenmeyi durdurur
Dengesiz bir olayı tespit etmek için Çift Yönlü RNN kullanıyorum. Pozitif sınıf, negatif sınıftan 100 kat daha azdır. Düzenleme kullanımı olmamasına rağmen tren setinde% 100, doğrulama setinde% 30 doğruluk elde edebilirim. L2 regülasyonunu açtım ve sonuç, daha uzun öğrenme yerine tren setinde sadece% 30 doğruluk ve doğrulama setinde% 100 doğruluk. …

1
Derin öğrenme için ne kadar veri var?
Derin öğrenmeyi (özellikle CNN'leri) ve aşırı sığmayı önlemek için genellikle çok fazla veriyi nasıl gerektirdiğini öğreniyorum. Bununla birlikte, bir modelin kapasitesi ne kadar yüksekse, fazla takmayı önlemek için o kadar fazla veriye ihtiyaç duyulduğu söylendi. Bu nedenle, sorum şu: Neden sadece derin bir sinir ağında katman başına katman / düğüm …

3
Tekrarlayan Sinir Ağının Yapısı (LSTM, GRU)
RNN'lerin mimarisini anlamaya çalışıyorum. Çok yardımcı olan bu öğreticiyi buldum: http://colah.github.io/posts/2015-08-Anlama-LSTMs/ Özellikle bu görüntü: Bu, ileri beslemeli bir ağa nasıl uyar? Bu görüntü her katmandaki başka bir düğüm mü?

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.