«neural-network» etiketlenmiş sorular

Yapay sinir ağları (YSA), biyolojik nöronların özelliklerini taklit eden 'nöronlar' - programlama yapılarından oluşur. Nöronlar arasındaki bir dizi ağırlıklı bağlantı, ağ tasarımcısı gerçek bir sistem modeline sahip olmadan yapay zeka sorunlarını çözmek için bilginin ağ üzerinden yayılmasını sağlar.

3
Sinir ağlarını eğitmek için bir optimize edici seçme yönergeleri
Bir süredir sinir ağları kullanıyorum. Bununla birlikte, sürekli mücadele ettiğim bir şey, ağı eğitmek için bir iyileştirici seçimidir (backprop kullanarak). Genellikle yaptığım şey sadece biriyle (örneğin standart SGD) başlamak ve diğerlerini hemen hemen rastgele denemek. İyi bir optimizer bulmak için daha iyi (ve daha az rastgele) bir yaklaşım olup olmadığını …

4
Keras (Python) kullanarak LSTM-RNN için hiperparametre araması
Keras RNN Öğreticisinden: "RNN'ler zor. Toplu iş boyutu seçimi önemlidir, kayıp ve optimize edici seçimi kritiktir, vb. Bazı yapılandırmalar yakınsama yapmaz." Yani bu daha çok bir LSTM-RNN'nin hiperparametrelerinin Keras üzerinde ayarlanması hakkında genel bir soru. RNN'niz için en iyi parametreleri bulma yaklaşımını bilmek istiyorum. Keras'ın Github'daki IMDB örneğiyle başladım . …

4
Sinir ağlarında sigmoid fonksiyonun rol türevi
Sinir ağlarında sigmoid fonksiyonun türevinin rolünü anlamaya çalışıyorum. İlk önce sigmoid fonksiyonunu ve python kullanarak tanımdan tüm noktaların türevini çiziyorum. Bu türevin rolü tam olarak nedir? import numpy as np import matplotlib.pyplot as plt def sigmoid(x): return 1 / (1 + np.exp(-x)) def derivative(x, step): return (sigmoid(x+step) - sigmoid(x)) / …

2
Neden hem doğrulama kümesini hem de test kümesini kullanmalıyım?
Bir sinir ağını düşünün: Belirli bir veri kümesi için, bunu eğitim, doğrulama ve test kümesine böleriz. Klasik 60:20:20 oranında yaptığımızı varsayalım, o zaman ağı doğrulama kümesinde kontrol ederek doğrulayarak aşırı sığmayı önlüyoruz. O zaman performansını kontrol etmek için test setinde test etme ihtiyacı nedir? Test setindeki hata, ağ için geçerli …

1
ReLU neden diğer aktivasyon fonksiyonlarından daha iyidir?
Burada cevap, benzer sigmoidaktivasyon fonksiyonları olan ama sanırım Relubir dezavantaja sahip olan ve beklenen değeri olan yok olan ve patlayan gradyanları ifade eder . çıkışı için bir sınırlama yoktur Reluve bu nedenle beklenen değeri sıfır değildir. Popülerlik önce hatırlıyorum Reluo tanhmakine ziyade uzmanlar öğrenme arasında en popüler oldu sigmoid. Bunun …

3
Derin Sinir Ağlarında Torbalama ve Bırakma
Torbalama, tek bir yordayıcı gibi en çok çalışan çoklu yordayıcıların üretilmesidir. Bırakma, tüm olası alt ağları ortalamayı bir sinir ağlarına öğreten bir tekniktir. En önemli Kaggle'ın yarışmalarına bakıldığında, bu iki tekniğin çok sık birlikte kullanıldığı görülmektedir. Gerçek uygulamanın yanında teorik bir fark göremiyorum. Neden her ikisini de gerçek bir uygulamada …

4
Sinir ağında ekstra çıkış katmanı (Ondalıktan ikiliye)
Çevrimiçi kitaptan bir soru üzerinde çalışıyorum: http://neuralnetworksanddeeplearning.com/chap1.html Ek çıkış katmanı 5 çıkış nöronuysa, muhtemelen bir önceki katman için 0.5 ve ağırlıkça 0.5 ağırlık sapması ayarlayabildiğimi anlayabilirim. Ancak soru şimdi dört çıkış nöronunun yeni bir katmanını soruyor - bu da 10 olası çıkışı temsil etmek için fazlasıyla yeterli .24242^{4} Birisi bana …

5
deniz dibi ısı haritasını büyüt
corr()Orijinal bir df dışında bir df oluşturun . corr()Df 70 X 70 çıktı ve ısı haritası görselleştirmek mümkün değildir ... sns.heatmap(df). Göstermeye çalışırsam corr = df.corr(), tablo ekrana sığmaz ve tüm korelasyonları görebilirim. Boyutundan dfbağımsız olarak tümünü yazdırmanın veya ısı haritasının boyutunu kontrol etmenin bir yolu var mı ?
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

1
Derin Sinir Ağı - ReLU ile Geriye İtiraz
ReLU ile geri yayılımı elde etmekte biraz zorlanıyorum ve biraz iş yaptım, ancak doğru yolda olup olmadığımdan emin değilim. Maliyet Fonksiyonu: ygerçek değeri ve y tahmin edilen bir değerdir. Ayrıcadaimax> 0olduğunu varsayın.12(y−y^)212(y−y^)2\frac{1}{2}(y-\hat y)^2yyyy^y^\hat yxxx 1 Kat ReLU, burada 1. kat ağırlığı w1w1w_1 dCdw1=dCdRdRdw1dCdw1=dCdRdRdw1\frac{dC}{dw_1}=\frac{dC}{dR}\frac{dR}{dw_1} dCw1=(y−ReLU(w1x))(x)dCw1=(y−ReLU(w1x))(x)\frac{dC}{w_1}=(y-ReLU(w_1x))(x) 2 kat ReLU, burada 1. kattaki …

2
Verileri test etmek için de normalleştirme uygulamalıyız?
Yazar tanımlama sorunu üzerine bir proje yapıyorum. Verileri eğitmek için tf-idf normalizasyonunu uyguladım ve daha sonra bu veriler üzerinde bir svm eğitimi aldım. Şimdi sınıflandırıcıyı kullanırken test verilerini de normalleştirmeliyim. Normalleşmenin temel amacının öğrenme algo'yu öğrenirken daha önemli özelliklere daha fazla ağırlık vermektir. Bu yüzden bir kez eğitildikten sonra, hangi …

5
Evrişimli sinir ağlarında aşırı uyum. Bırakma yardımcı olmuyor
Biraz konnets ile oynuyorum. Özellikle, kedi veya köpek (her biri 12500) olarak etiketlenmiş 25000 görüntüden oluşan kaggle cats---dogs veri kümesini kullanıyorum. Test setimde yaklaşık% 85 sınıflandırma doğruluğu elde etmeyi başardım, ancak% 90 doğruluk elde etme hedefi belirledim. Benim asıl sorunum aşırı uymak. Her nasılsa her zaman olur (normalde 8-10 döneminden …


3
Sinir ağı eğitimi için kategorik ve sürekli giriş özellikleri nasıl birleştirilir
Kategorik ve sürekli olmak üzere iki tür giriş özelliğimiz olduğunu varsayalım. Kategorik veriler bir sıcak kod A olarak temsil edilebilirken, sürekli veriler N-boyutlu uzayda sadece bir B vektörüdür. Görünüşe göre sadece concat (A, B) kullanmak iyi bir seçim değildir çünkü A, B tamamen farklı veri türleridir. Örneğin, B'den farklı olarak, …

8
Yapay Sinir Ağlarını Nasıl Öğrenebilirim?
Şu anda sinir ağlarını kullanarak araştırma yapan bir birinci sınıf lisans öğrencisiyim (bundan söz ederek tanımadığımı affedebilirsiniz). Profesörün rehberliğinde üç düğümlü bir sinir ağını (işe yarayan) kodladım. Ancak yapay zeka ve veri biliminde bir kariyer yapmak istiyorum ve kendime bunlarla ilgili daha ayrıntılı bilgi vermek istiyorum. Sinir ağı yapıları, derin …


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.