«neural-networks» etiketlenmiş sorular

Yapay sinir ağları (YSA), biyolojik sinir ağlarına gevşek bir şekilde dayanan geniş bir hesaplama modelleri sınıfıdır. İleri beslemeli NN'leri ("derin" NN'ler dahil), evrişimli NN'leri, tekrarlayan NN'leri, vb.

2
Sinir Ağı'ndan gerçek değerli sürekli çıktı nasıl alınır?
Sinir ağlarının şimdiye kadar gördüğüm örneklerinin çoğunda, ağ sınıflandırma için kullanılır ve düğümler sigmoid işleviyle dönüştürülür. Ancak, sürekli bir gerçek değer üretmek için bir sinir ağı kullanmak istiyorum (gerçekçi olarak çıktı genellikle -5 ila +5 aralığında olacaktır). Sorularım: 1. Should I still scale the input features using feature scaling? What …

1
Derin Sinir Ağlarında Duyarlılık Analizi
Zaten cevaplanan bir sorudan sonra ( Tek Katmanlı ileri beslemeli ağdan ağırlık önemini ayıklama ) Sinir ağlarındaki girdilerin alaka düzeyi hakkında çıkarım arıyorum. İlgilenilen çıkış düğümünden katmanlar arasında geriye doğru gidilerek girdi önemini yeniden yapılandırmanın zor veya zaman alıcı olabileceği derin bir ağ göz önüne alındığında, sinir ağı için duyarlılık …

3
Sinir ağı - ikili / ayrık / sürekli giriş
Tüm giriş düğümleri (geri yayılımlı olsun veya olmasın) için ileri beslemeli bir ağ için girdi olarak, ayrık veya sürekli normalize edilmiş değerlere (örn. (1; 3) göre ikili değerleri (0/1) tercih etmenin iyi bir nedeni var mı? Tabii ki, sadece her iki formata dönüştürülebilecek girdilerden bahsediyorum; örneğin, birden fazla değer alabilen …

3
Sinir ağları neden özellik seçimine / mühendisliğine ihtiyaç duyar?
Özellikle kaggle yarışmaları bağlamında, modelin performansının özellik seçimi / mühendisliği ile ilgili olduğunu fark ettim. Daha geleneksel / eski okul ML algoritmalarıyla uğraşırken bunun neden olduğunu tam olarak anlayabilsem de, derin sinir ağlarını kullanırken neden böyle olacağını anlamıyorum. Derin Öğrenme kitabından alıntı: Derin öğrenme, temsili öğrenmedeki bu merkezi problemi, daha …


2
CNN xavier ağırlık başlatma
Bazı derslerde, "Xavier" kilo başlatmanın (kağıt: Derin ileri beslemeli sinir ağlarını eğitmenin zorluğunu anlamanın ) sinir ağlarının ağırlıklarını başlatmanın etkili bir yolu olduğunu ifade ettim . Tamamen bağlı katmanlar için bu öğreticilerde temel bir kural vardı: Var(W)=2nin+nout,simpler alternative:Var(W)=1ninVar(W)=2nin+nout,simpler alternative:Var(W)=1ninVar(W) = \frac{2}{n_{in} + n_{out}}, \quad \text{simpler alternative:} \quad Var(W) = \frac{1}{n_{in}} …

2
Gürültülü etiketlerle sınıflandırma?
Sınıflandırma için bir sinir ağı eğitmeye çalışıyorum, ancak sahip olduğum etiketler oldukça gürültülü (etiketlerin yaklaşık% 30'u yanlış). Çapraz entropi kaybı gerçekten işe yarıyor, ama bu durumda daha etkili olan alternatifler olduğunu merak ediyordum. veya çapraz entropi kaybı optimal midir? Emin değilim ama çapraz entropi kaybını "kırpma" düşünüyorum, böylece bir veri …


4
Çoklu çıktı regresyonu için sinir ağı
34 giriş sütun ve 8 çıkış sütun içeren bir veri kümesi var. Sorunu çözmenin bir yolu, 34 girişi almak ve her bir çıkış sütunu için bireysel regresyon modeli oluşturmaktır. Bu sorunun özellikle Sinir Ağı kullanılarak sadece bir model kullanılarak çözülüp çözülemeyeceğini merak ediyorum. Çok katmanlı bir algılayıcı kullandım, ancak bunun …

2
Sinir Ağları: Bir sıcak değişken ezici sürekli?
Yaklaşık 20 sütun (20 özellik) olan ham veri var. Bunlardan on tanesi sürekli veridir ve 10 tanesi kategoriktir. Kategorik verilerin bazıları 50 farklı değere sahip olabilir (ABD Devletleri). Verileri önceden işledikten sonra 10 sürekli sütun 10 hazırlanmış sütun haline gelir ve 10 kategorik değer 200 tek etkin kodlanmış değişken gibi …

1
Derin pekiştirici öğrenme neden kararsız?
DeepMind'in 2015 derin takviye öğrenimi makalesinde, "Önceki RL'yi sinir ağları ile birleştirmeye yönelik önceki girişimlerin dengesiz öğrenme nedeniyle büyük ölçüde başarısız olduğunu" belirtmektedir. Bu makalede, gözlemler arasındaki korelasyonlara dayanarak bunun bazı nedenleri listelenmektedir. Lütfen birisi bunun ne anlama geldiğini açıklayabilir mi? Sinir ağının eğitimde mevcut olan, ancak testte bulunmayan bazı …

2
Sinir ağları neden kolayca kandırılır?
Bir sinir ağını "kandırmak" için el ile çelişen görüntüler hakkında bazı makaleler okudum (aşağıya bakınız). Bunun nedeni, ağların yalnızca koşullu olasılık modellemesi olduğu için mi? Bir ağ ortak olasılığını modelleyebiliyorsa , bu gibi durumlar yine de olur mu?p(y|x)p(y|x)p(y|x)p(y,x)p(y,x)p(y,x) Tahminimce yapay olarak üretilen görüntüler eğitim verilerinden farklı, bu yüzden düşük olasılıkta …


2
Sinir ağındaki ağırlıkların başlatılmasında kesik normal dağılımın yararı nedir?
Bir ileri beslemeli sinir ağında bağlantı ağırlıkları başlatılırken, öğrenme algoritmasının kırılamayacağı simetrilerden kaçınmak için bunları rastgele başlatmak önemlidir. Çeşitli yerlerde gördüğüm öneri (örneğin, TensorFlow'un MNIST eğitiminde ), kesik normal dağılımı, standart sapması kullanarak kullanmaktır ; burada , nöron tabakası verildi.1N−−√1N\dfrac{1}{\sqrt{N}}NNN Standart sapma formülünün geri çoğaltılmış gradyanların çok hızlı çözülmemesini veya …

1
Derin ağ LSTM katmanı nasıl eğitilir
Metin sınıflandırmak için bir lstm ve ileri beslemeli ağ kullanıyorum. Metni tek sıcak vektörlere dönüştürüyorum ve her birini lstm'ye besliyorum, böylece tek bir gösterim olarak özetleyebiliyorum. Sonra diğer ağa besliyorum. Ama lstm'yi nasıl eğitebilirim? Metni sıralamak istiyorum - eğitim yapmadan mı beslemeliyim? Ben sadece sınıflandırıcı giriş katmanına besleyebilir tek bir …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.