«rnn» etiketlenmiş sorular

Tekrarlayan sinir ağı (RNN), birimler arasındaki bağlantıların yönlendirilmiş bir döngü oluşturduğu bir yapay sinir ağı sınıfıdır.

5
ARIMA ve LSTM kullanarak zaman serisi tahmini
Uğraştığım sorun zaman serisi değerlerini tahmin etmektir. Bir seferde bir zaman serisine bakıyorum ve örneğin girdi verilerinin% 15'ine dayanarak gelecekteki değerlerini tahmin etmek istiyorum. Şimdiye kadar iki modelle karşılaştım: LSTM (uzun kısa süreli hafıza; tekrarlayan sinir ağları sınıfı) ARİMA İkisini de denedim ve bunlarla ilgili bazı makaleler okudum. Şimdi ikisini …

2
Bir RNN'nin Keras'ta farklı uzunluktaki örneklerle eğitimi
RNN'ler hakkında bilgi almaya başladım ve Keras kullanıyorum. Vanilya RNN ve LSTM katmanlarının temel öncülünü anlıyorum, ancak eğitim için belirli bir teknik noktayı anlamakta güçlük çekiyorum. Gelen keras belgeler , bir RYSA katmanına girdi şekline sahip olmalıdır diyor (batch_size, timesteps, input_dim). Bu, tüm eğitim örneklerinin sabit bir sekans uzunluğuna sahip …
60 python  keras  rnn  training 

3
LSTM modelinde parametre sayısı
Tek bir istiflenmiş LSTM'nin kaç parametresi vardır? Parametre sayısı, gereken eğitim örneği sayısına daha düşük bir sınır uygular ve ayrıca eğitim süresini etkiler. Bu nedenle, parametre sayısını bilmek LSTM'leri kullanan eğitim modelleri için kullanışlıdır.

1
Makale: Katman Normalizasyonu, Tekrarlayan Toplu Normalizasyonu (2016) ve Toplu Normalleştirilmiş RNN'i (2015) arasındaki fark nedir?
Yani, son zamanlarda bir Katman Normalleştirme kağıdı var. Keras'larda da bir uygulaması var . Ancak, Tekrarlanan Toplu Normalizasyon (Cooijmans, 2016) ve Toplu Normalleştirilmiş Tekrarlayan Sinir Ağları (Laurent, 2015) başlıklı makaleler olduğunu hatırlıyorum . Bu üç arasındaki fark nedir? Anlamıyorum bu İlgili Çalışma bölümü var: Parti normalizasyonu daha önce tekrarlayan sinir …

4
“LSTM hücresindeki birim sayısı” nın anlamı nedir?
Gönderen Tensorflow kodu: Tensorflow. RnnCell. num_units: int, The number of units in the LSTM cell. Bunun ne anlama geldiğini anlayamıyorum. LSTM hücresinin birimleri nelerdir. Giriş, Çıkış ve giriş kapıları? Bu "Derin LSTM için tekrarlayan projeksiyon katmanındaki birim sayısı" anlamına gelir. O zaman buna neden "LSTM hücresindeki birim sayısı" denir? LSTM …

5
deniz dibi ısı haritasını büyüt
corr()Orijinal bir df dışında bir df oluşturun . corr()Df 70 X 70 çıktı ve ısı haritası görselleştirmek mümkün değildir ... sns.heatmap(df). Göstermeye çalışırsam corr = df.corr(), tablo ekrana sığmaz ve tüm korelasyonları görebilirim. Boyutundan dfbağımsız olarak tümünü yazdırmanın veya ısı haritasının boyutunu kontrol etmenin bir yolu var mı ?
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

3
Sözcük tabanlı ve karakter tabanlı metin oluşturma RNN'leri arasındaki fark nedir?
Tekrarlayan Sinir Ağları ile metin oluşturma hakkında okurken, nedenini belirtmeden , kelime kelime ve diğerleri karakter karakter üretmek için bazı örnekler uygulandığını fark ettim . Peki, kelime başına metni temel alan RNN modelleri ile karakter başına metni temel alan modeller arasındaki fark nedir? Kelime tabanlı RNN daha büyük bir boyut …

1
Çoklu zaman serileri kullanan RNN
Zaman serilerini girdi olarak kullanarak nöral bir ağ oluşturmaya çalışıyorum, her serinin türüne göre eğitmek için. RNN'leri kullanarak girdiyi toplu olarak bölebileceğinizi ve zaman serisinin her noktasını bireysel nöronlara kullanabileceğinizi ve sonunda ağı eğitebileceğinizi okudum. Ne yapmaya çalışıyorum ama bir girdi olarak birden çok zaman serisi kullanmaktır. Örneğin, iki sensörden …
14 time-series  rnn 

1
Tekrarlayan Bir Sinir Ağında (RNN) Katmanı Unut -
Unut katmanında bir RNN her değişkenlerin boyutlarını anlamaya çalışıyorum, ancak doğru yolda olup olmadığından emin değilim. Bir sonraki resim ve denklem Colah'ın "LSTM Ağlarını Anlamak" adlı blog yazısıdır : nerede: , m ∗ 1 vektörboyutunun girilmesidirxtxtx_tm ∗ 1m∗1m*1 n ∗ 1 vektörboyutunun gizli durumudurht - 1ht−1h_{t-1}n ∗ 1n∗1n*1 bir birleştirme …

2
Keras'ta “bire çok” ve “çoktan çoğa” dizi tahmini nasıl uygulanır?
Keras kodlama farkını bir-çok (örneğin, tek görüntülerin sınıflandırılması) ve çok-çok (ör. Görüntü dizilerinin sınıflandırılması) dizi etiketlemesi için yorumlamaya çalışıyorum. Sık sık iki farklı kod türü görüyorum: Tip 1, böyle bir TimeDistributed uygulanmadığı yerdir: model=Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode="valid", input_shape=[1, 56,14])) model.add(Activation("relu")) model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1])) model.add(Activation("relu")) model.add(MaxPooling2D(pool_size=pool_size)) model.add(Reshape((56*14,))) model.add(Dropout(0.25)) model.add(LSTM(5)) model.add(Dense(50)) …
13 keras  rnn  lstm  sequence 

1
Çok boyutlu ve çok değişkenli Zaman Serisi tahmini (RNN / LSTM) Keras
Bir nasıl temsil ve şekil verileri anlamaya çalışıyorlar de çok boyutlu ve çok değişkenli serisi keras (veya TensorFlow) kullanılarak tahmin zaman ama veri sunmayı konusunda birçok blog yayınları / öğreticiler / belgeleri okuduktan sonra hala çok belirsiz duyuyorum doğru şekil (çoğu örnek biraz daha az Veri Kümem: birkaç şehir hangi …
12 python  keras  rnn  lstm 

1
Kaç LSTM hücresi kullanmalıyım?
Kullanmam gereken minimum, maksimum ve "makul" miktarda LSTM hücresi ile ilgili herhangi bir temel kural (veya gerçek kurallar) var mı? Özellikle ben ilişkin am BasicLSTMCell TensorFlow ve gelen num_unitsmülk. Lütfen şu şekilde tanımlanan bir sınıflandırma sorunum olduğunu varsayalım: t - number of time steps n - length of input vector …
12 rnn  machine-learning  r  predictive-modeling  random-forest  python  language-model  sentiment-analysis  encoding  machine-learning  deep-learning  neural-network  dataset  caffe  classification  xgboost  multiclass-classification  unbalanced-classes  time-series  descriptive-statistics  python  r  clustering  machine-learning  python  deep-learning  tensorflow  machine-learning  python  predictive-modeling  probability  scikit-learn  svm  machine-learning  python  classification  gradient-descent  regression  research  python  neural-network  deep-learning  convnet  keras  python  tensorflow  machine-learning  deep-learning  tensorflow  python  r  bigdata  visualization  rstudio  pandas  pyspark  dataset  time-series  multilabel-classification  machine-learning  neural-network  ensemble-modeling  kaggle  machine-learning  linear-regression  cnn  convnet  machine-learning  tensorflow  association-rules  machine-learning  predictive-modeling  training  model-selection  neural-network  keras  deep-learning  deep-learning  convnet  image-classification  predictive-modeling  prediction  machine-learning  python  classification  predictive-modeling  scikit-learn  machine-learning  python  random-forest  sampling  training  recommender-system  books  python  neural-network  nlp  deep-learning  tensorflow  python  matlab  information-retrieval  search  search-engine  deep-learning  convnet  keras  machine-learning  python  cross-validation  sampling  machine-learning 

3
Python için kullanıma hazır iyi dil modelleri var mı?
Ben bir uygulama prototip ve bazı oluşturulan cümleler üzerinde şaşkınlık hesaplamak için bir dil modeline ihtiyacım var. Python'da kolayca kullanabileceğim eğitimli bir dil modeli var mı? Gibi basit bir şey model = LanguageModel('en') p1 = model.perplexity('This is a well constructed sentence') p2 = model.perplexity('Bunny lamp robert junior pancake') assert p1 …
11 python  nlp  language-model  r  statistics  linear-regression  machine-learning  classification  random-forest  xgboost  python  sampling  data-mining  orange  predictive-modeling  recommender-system  statistics  dimensionality-reduction  pca  machine-learning  python  deep-learning  keras  reinforcement-learning  neural-network  image-classification  r  dplyr  deep-learning  keras  tensorflow  lstm  dropout  machine-learning  sampling  categorical-data  data-imputation  machine-learning  deep-learning  machine-learning-model  dropout  deep-network  pandas  data-cleaning  data-science-model  aggregation  python  neural-network  reinforcement-learning  policy-gradients  r  dataframe  dataset  statistics  prediction  forecasting  r  k-means  python  scikit-learn  labels  python  orange  cloud-computing  machine-learning  neural-network  deep-learning  rnn  recurrent-neural-net  logistic-regression  missing-data  deep-learning  autoencoder  apache-hadoop  time-series  data  preprocessing  classification  predictive-modeling  time-series  machine-learning  python  feature-selection  autoencoder  deep-learning  keras  tensorflow  lstm  word-embeddings  predictive-modeling  prediction  machine-learning-model  machine-learning  classification  binary  theory  machine-learning  neural-network  time-series  lstm  rnn  neural-network  deep-learning  keras  tensorflow  convnet  computer-vision 

2
Hangi LSTM katmanlarında bırakma?
LSTMBırakma ile çok katmanlı bir katman kullanmak , tüm Gizli katmanların yanı sıra Yoğun katmanların çıktısına bırakma yapılması önerilir mi? Hinton'un makalesinde (Bırakmayı önerdi), sadece Yoğun katmanlara Bırakmayı koydu, ancak gizli iç katmanlar kıvrımlıydı. Açıkçası, kendi modelimi test edebilirim, ama bu konuda bir fikir birliği olup olmadığını merak ettim?


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.