«deep-learning» etiketlenmiş sorular

Temelde derin sinir ağları ile yapılan verilerin hiyerarşik temsillerini öğrenmeyle ilgili makine öğrenimi alanı.

1
Küçük veri kümesinde LSTM'nin aşırı takılmasını önleme
80 boyutlu bir word2vec benzeri temsil kullanarak 128 gizli birimleri ile tek bir katman LSTM kullanarak duygu tahmini için 15000 tweet modelleme. 1 çağdan sonra bir iniş doğruluğu (rastgele% 38 =% 20) alıyorum. Daha fazla eğitim, eğitim doğruluğu tırmanmaya başladığında doğrulama doğruluğunun azalmaya başlamasını sağlar - açık bir aşırı sığdırma …

1
Derin ağ LSTM katmanı nasıl eğitilir
Metin sınıflandırmak için bir lstm ve ileri beslemeli ağ kullanıyorum. Metni tek sıcak vektörlere dönüştürüyorum ve her birini lstm'ye besliyorum, böylece tek bir gösterim olarak özetleyebiliyorum. Sonra diğer ağa besliyorum. Ama lstm'yi nasıl eğitebilirim? Metni sıralamak istiyorum - eğitim yapmadan mı beslemeliyim? Ben sadece sınıflandırıcı giriş katmanına besleyebilir tek bir …

3
Evrişimli sinir ağları tam olarak matris çarpımı yerine evrişimi nasıl kullanır?
Yoshua Bengio'nun derin öğrenme Kitabı'nı okuyordum ve sayfa 224'te yazıyor: Evrişimli ağlar, katmanlarından en az birinde genel matris çarpımı yerine evrişimi kullanan sinirsel ağlardır. bununla birlikte, "matris çarpımını evrişim ile nasıl değiştireceğimin" matematiksel olarak hassas bir şekilde% 100 emin değildim. Beni gerçekten ilgilendiren, 1D'deki giriş vektörleri için bunu tanımlamaktır ( …

1
Pratikte “Saddle-Free Newton” iniş algoritması kullanılmıyor?
Son zamanlarda Yann Dauphin ve ark. Saddle-Free Newton adında ilginç bir iniş algoritması getirdikleri, yüksek boyutlu dışbükey olmayan optimizasyonda eyer noktası problemini tanımlama ve saldırı , bu da sinir ağı optimizasyonu için tam olarak uyarlanmış gibi görünür ve eyer noktalarında sıkışmaktan muzdarip olmamalıdır vanilya SGD gibi birinci dereceden yöntemler gibi. …



1
Stokastik degrade iniş (SGD) için uygun bir minibatch boyutu seçme
Stokastik degrade iniş yaparken minibatch boyutu seçimini inceleyen literatür var mı? Deneyimlerime göre, genellikle çapraz doğrulama veya değişen başparmak kuralları kullanılarak bulunan ampirik bir seçim gibi görünüyor. Doğrulama hatası azaldıkça minibatch boyutunu yavaşça arttırmak iyi bir fikir mi? Bunun genelleme hatası üzerinde ne gibi etkileri olur? Son derece küçük bir …



5
Sinir ağları / derin öğrenme tasarlamak ve uygulamak için görsel bir araç var mı? [kapalı]
Kapalı. Bu soru konu dışı . Şu anda cevapları kabul etmiyor. Bu soruyu geliştirmek ister misiniz? Sorunuzu güncelleyin o yüzden -konu üzerinde Çapraz doğrulanmış için. 10 ay önce kapalı . Kahve, Theano, TensorFlow, keras gibi makine öğrenimi ve derin öğrenme için çok sayıda kütüphane olduğunu biliyorum ... Ama benim için …

1
Parti normalizasyonu ile geri yayılımın matris formu
Parti normalizasyonu , derin sinir ağlarında önemli performans iyileştirmeleri ile kredilendirilmiştir. İnternetteki birçok malzeme, aktivasyon bazında nasıl uygulanacağını göstermektedir. Zaten matris cebiri kullanarak backprop uyguladım ve yüksek seviyeli dillerde çalıştığımı Rcpp(yoğun matris çarpımı için (ve sonunda forGPU'lara güvenerek) çalışırken , her şeyi kopyalayıp-döngülere başvurmak muhtemelen kodumu yavaşlatacaktır) büyük bir acıya …

3
Sinir mimarileri: veri kontrollü otomatik tasarım
Sinir ağlarındaki son ilerleme, esas olarak büyüyen tasarım karmaşıklığı ile karakterize edilen bir dizi yeni mimariyle özetlenmektedir. LeNet5'ten (1994) AlexNet'e (2012), Overfeat (2013) ve GoogleLeNet / Inception (2014) ve benzeri ... Makinenin verilere bağlı olarak hangi mimarinin kullanılacağına karar vermesine / tasarlamasına izin vermek için bir girişim var mı?

4
Degrade İnişe sahip öğrenme oranını Optimize Edici olarak nasıl (sistematik olarak) ayarlayabilirsiniz?
ML / DL alanından bir yabancı; Tensorflow'a dayanan Udacity Derin Öğrenme kursuna başladı; ödev 3 problemini yapmak 4; öğrenme hızını aşağıdaki yapılandırma ile ayarlamaya çalışmak: Parti büyüklüğü 128 Adım sayısı: 2 dönemi doldurmak için yeterli Gizli katmanların boyutları: 1024, 305, 75 Ağırlık başlatma: std ile normal kesildi. sqrt (2 / …

2
Zaman içinde kesilmiş geri yayılım (RNN / LSTM) kullanırken ilk kalıpların yakalanması
Çoktan bire yaklaşım olan duyarlılık analizi yapmak için bir RNN / LSTM kullandığımı varsayalım ( bu bloga bakınız ). Ağ, zaman içinde kesilmiş bir geri yayılım (BPTT) ile eğitilir; burada ağ, her zamanki gibi son 30 adımda açılır. Benim durumumda sınıflandırmak istediğim metin bölümlerimin her biri, açılmakta olan 30 adımdan …

2
Bir 0-1 kayıp işlevi neden kullanılamaz?
Ian Goodfellow'un Derin Öğrenme kitabında, Bazen, gerçekten önem verdiğimiz kayıp fonksiyonu (örneğin, sınıflandırma hatası) verimli bir şekilde optimize edilebilen bir işlev değildir. Örneğin, beklenen 0-1 kaybını tam olarak en aza indirmek, doğrusal bir sınıflandırıcı için bile tipik olarak inatçıdır (giriş boyutunda üstel). Bu gibi durumlarda, tipik olarak vekil görevi gören …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.