«neural-networks» etiketlenmiş sorular

Yapay sinir ağları (YSA), biyolojik sinir ağlarına gevşek bir şekilde dayanan geniş bir hesaplama modelleri sınıfıdır. İleri beslemeli NN'leri ("derin" NN'ler dahil), evrişimli NN'leri, tekrarlayan NN'leri, vb.


5
Sinir Ağı eğitimi için Backpropagation vs Genetik Algoritma
Her yöntemin artılarını ve eksilerini tartışan birkaç makale okudum, bazıları GA'nın en uygun çözümü bulmada herhangi bir gelişme sağlamadığını, diğerleri ise bunun daha etkili olduğunu gösteriyor. Genel olarak literatürde GA'nın tercih edildiği görülmektedir (çoğu insan ihtiyaç duydukları sonuçları elde etmek için bir şekilde değiştirmelerine rağmen), o zaman neden yazılım çözümlerinin …



5
SVM, her seferinde bir örnek öğrenme akışını yapabilir mi?
Bir akış veri setim var, örnekler birer birer hazır. Onlar üzerinde çok sınıflandırma yapmam gerekiyor. Öğrenme sürecine bir eğitim örneği beslediğimde, örneği atmam gerekiyor. Aynı zamanda, etiketlenmemiş veriler üzerinde öngörüde bulunmak için en son modeli kullanıyorum. Bildiğim kadarıyla bir sinir ağı, örnekleri birer birer besleyerek ve örnek üzerinde ileriye doğru …

1
R'de bir sinir ağı modeli nasıl eğitilir ve doğrulanır?
Sinir ağları ile modelleme konusunda yeniyim, ancak gözlemlenen verilere uygun tüm mevcut veri noktalarına sahip bir sinir ağı oluşturmayı başardım. Sinir ağı, nnet paketi ile R'de yapıldı: require(nnet) ##33.8 is the highest value mynnet.fit <- nnet(DOC/33.80 ~ ., data = MyData, size = 6, decay = 0.1, maxit = 1000) …

4
Tanh neden bir aktivasyon işlevi olarak neredeyse her zaman sigmoidlerden daha iyidir?
Andrew Ng'un Yapay Sinir Ağları ve Coursera'daki Derin Öğrenme kursunda kullanmanın neredeyse her zaman kullanmanın tercih edildiğini söylüyor .tanhtanhtanhsigmoidsigmoidsigmoid O verir nedeni çıkışları kullanarak olmasıdır daha etrafında 0 ziyade merkezi 'ın 0.5, ve bu 'biraz daha kolay bit sonraki katman için öğrenme yapar'.tanhtanhtanhsigmoidsigmoidsigmoid Aktivasyonun çıkış hızını merkezlemek neden öğreniyor? Sanırım …

2
Jürgen Schmidhuber tarafından üretilen üretici rakip ağlar var mıydı?
Https://en.wikipedia.org/wiki/Generative_adversarial_networks adresinde okudum : [Üretken ters ağlar] 2014 yılında Ian Goodfellow ve arkadaşları tarafından tanıtıldı. Ancak Jurgen Schmidhuber bu yönde daha önce benzer çalışmalar yaptığını iddia ediyor (örneğin, üretici karşıt ağlar eğitimi sırasında NIPS 2016'da bazı tartışmalar yapıldı: https://channel9.msdn.com/Events/Neural-Information-Processing-Systems- Konferans / Sinir-Bilgi İşlem-Sistemleri-Konferans-NIPS-2016 / Üretken- Değişken -Ağlar bkz. 1h03min). Jürgen …



2
Neden AlphaGo’ya benzeyen satranç için sağlam bir güçlendirme öğrenme motoru yok?
Bilgisayarlar uzun zamandır "kaba kuvvet" tekniğini kullanarak, belirli bir derinliği araştırarak ve daha sonra konumunu değerlendirerek satranç oynayabildiler. Ancak AlphaGo bilgisayarı, pozisyonları değerlendirmek için sadece bir YSA kullanıyor (bildiğim kadarıyla derinlemesine arama yapmıyor). AlphaGo'nun Go ile oynadığı gibi satranç oynayan bir satranç motoru oluşturmak mümkün mü? Neden kimse bunu yapmadı? …

2
Konvolüsyonel bir sinir ağında “özellik haritası” nın (aka “aktivasyon haritası”) tanımı nedir?
Giriş Arkaplanı Konvolüsyonel bir sinir ağı içinde genellikle buna benzeyen genel bir yapıya / akışa sahibiz: giriş görüntüsü (yani 2B vektör x) (1. Konvolüsyon tabakası (Conv1) burada başlar ...) w12B görüntü boyunca bir dizi filtre ( ) döndürün (yani z1 = w1*x + b1nokta ürün çarpmalarını yapın), burada 3B'dir z1ve …

1
CNN regresyon mimarileri?
Girişin bir görüntü olduğu ve etiketin 80 ile 350 arasında sürekli bir değer olduğu bir regresyon problemi üzerinde çalışıyorum. Bir reaksiyon gerçekleştikten sonra görüntüler bazı kimyasallara sahip. Ortaya çıkan renk, geride kalan başka bir kimyasal maddenin konsantrasyonunu gösterir ve modelin çıktısı budur - o kimyasal maddenin konsantrasyonu. Görüntüler döndürülebilir, çevrilebilir, …

5
LSTM birimlerini hücrelere karşı anlama
Bir süredir LSTM'leri inceliyorum. Her şeyin nasıl çalıştığını yüksek düzeyde anlıyorum. Ancak, onları Tensorflow kullanarak uygulayacağım BasicLSTMCell'in bir dizi birim (yani num_units) parametresi gerektirdiğini fark ettim . Gönderen bu LSTMs arasında çok kapsamlı bir açıklama, tek bir olduğunu topladık LSTM birimi aşağıdakilerden biridir ki bu aslında bir GRU birimidir. Bunun …

4
ReLU'yu neden sinir ağlarında kullanıyoruz ve nasıl kullanıyoruz?
Neden rektifiye edilmiş lineer birimleri (ReLU) sinir ağlarıyla kullanıyoruz? Bu sinir ağını nasıl geliştirir? Neden ReLU'nun bir aktivasyon işlevi olduğunu söylüyoruz? Sinir ağları için softmax aktivasyon fonksiyonu değil mi? Hem ReLU hem de softmax kullandığımızı tahmin ediyorum: softmax çıkışlı nöron 1 ----> nöron 2'nin girişindeki nöron 1 çıkışındaki ReLU ---> …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.