«tensorflow» etiketlenmiş sorular

Google tarafından geliştirilen derin öğrenme için bir Python kütüphanesi. Bu etiketi, (a) tensorflow'u ya sorunun kritik bir parçası ya da beklenen cevap olarak içeren herhangi bir konuyla ilgili soru için kullanın ve (b) sadece tensorflow'un nasıl kullanılacağı ile ilgili değildir.

5
Üstel çürüme ile Adam optimizer
Tensorflow kodlarının çoğunda, Adam Optimizer’ın sabit bir Öğrenme Hızı 1e-4(yani 0.0001) ile kullanıldığını gördüm . Kod genellikle aşağıdakilere bakar: ...build the model... # Add the optimizer train_op = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy) # Add the ops to initialize variables. These will include # the optimizer slots added by AdamOptimizer(). init_op = tf.initialize_all_variables() # …

1
Softmax_cross_entropy_with_logits'in softmax_cross_entropy_with_logits_v2 den farkı nedir?
Özellikle, bu ifadeyi merak ediyorum galiba: TensorFlow'un gelecekteki ana sürümleri, gradyanların varsayılan olarak backprop'taki etiket girişlerine akmasına izin verecek. Kullandığımda gösteriliyor tf.nn.softmax_cross_entropy_with_logits. Aynı mesajda beni incelemeye çağırıyor tf.nn.softmax_cross_entropy_with_logits_v2. Dokümantasyona baktım, ancak yalnızca şunu belirtir tf.nn.softmax_cross_entropy_with_logits_v2: Geri yayılım hem logitlerde hem de etiketlerde gerçekleşecek. Etiketlerin geri yayılmasını engellemek için, etiket tensörlerini …

3
Makine Öğrenimi: İkili tahminler için kategorik bir çapraz entropi veya ikili çapraz entropi kaybı kullanmalı mıyım?
Öncelikle, ikili tahminler yapmam gerekirse, tek bir sıcak kodlama gerçekleştirerek en az iki sınıf oluşturmam gerektiğini fark ettim. Bu doğru mu? Ancak, ikili çapraz entropi sadece bir sınıf içeren tahminler için mi? Genelde çoğu kütüphanede (TensorFlow gibi) bulunan kategorik bir çapraz entropi kaybı kullansaydım, önemli bir fark olur mu? Aslında, …

1
CNN regresyon mimarileri?
Girişin bir görüntü olduğu ve etiketin 80 ile 350 arasında sürekli bir değer olduğu bir regresyon problemi üzerinde çalışıyorum. Bir reaksiyon gerçekleştikten sonra görüntüler bazı kimyasallara sahip. Ortaya çıkan renk, geride kalan başka bir kimyasal maddenin konsantrasyonunu gösterir ve modelin çıktısı budur - o kimyasal maddenin konsantrasyonu. Görüntüler döndürülebilir, çevrilebilir, …

5
LSTM birimlerini hücrelere karşı anlama
Bir süredir LSTM'leri inceliyorum. Her şeyin nasıl çalıştığını yüksek düzeyde anlıyorum. Ancak, onları Tensorflow kullanarak uygulayacağım BasicLSTMCell'in bir dizi birim (yani num_units) parametresi gerektirdiğini fark ettim . Gönderen bu LSTMs arasında çok kapsamlı bir açıklama, tek bir olduğunu topladık LSTM birimi aşağıdakilerden biridir ki bu aslında bir GRU birimidir. Bunun …

3
PCA'yı aşmak için Tensorflow'ta bir otomatik kodlayıcı oluşturma
Sinir Ağları ile Verilerin Boyutlarını Azaltan Hinton ve Salakhutdinov , Science 2006 , derin bir otomatik kodlayıcı kullanarak doğrusal olmayan bir PCA önerdi. Birkaç defa Tensorflowlu bir PCA otomatik kodlayıcı oluşturmaya ve eğitmeye çalıştım, ancak doğrusal PCA'dan daha iyi bir sonuç elde edemedim. Bir otomatik kodlayıcıyı nasıl verimli bir şekilde …

1
Adım adım ters mod otomatik farklılaşma örneği
Bu sorunun buraya ait olup olmadığından emin değilim, ancak optimizasyondaki degrade yöntemleriyle yakından ilgilidir, bu da burada konuyla ilgili görünüyor. Her neyse, başka bir topluluğun bu konuda daha iyi bir uzmanlığı olduğunu düşünüyorsanız, göç etmekten çekinmeyin. Kısacası, adım adım ters mod otomatik farklılaşma örneği arıyorum . Orada konuyla ilgili çok …

2
varyasyon otomatik kodlayıcıda KLD kaybı ve yeniden yapılanma kayıplarının ağırlığı
Bir VAE'yi gördüğüm neredeyse tüm kod örneklerinde, kayıp işlevleri şu şekilde tanımlanır (bu tensorflow kodudur, ancak theano, torch vb. için de benzer şekilde gördüm. , sadece toplamların alındığı ekseni etkiler): # latent space loss. KL divergence between latent space distribution and unit gaussian, for each batch. # first half of …

1
TensorBoard'da TensorFlow tarafından verilen histogramlar nasıl yorumlanır?
Son zamanlarda koşuyor ve tensör akışını öğreniyordum ve nasıl yorumlayacağımı bilmediğim birkaç histogram aldım. Genellikle çubukların yüksekliğini frekans (veya göreceli frekans / sayım) olarak düşünüyorum. Ancak, her zamanki histogramda olduğu gibi çubuklar olmadığı ve her şeyin gölgeli olduğu gerçeği beni şaşırtıyor. Aynı zamanda aynı anda birçok satır / yükseklik var …

3
Gizli katman nöronları olarak Relmo vs Sigmoid Softmax
Tensorflow tarafından yalnızca bir gizli katmana sahip basit bir Sinir Ağı ile oynuyordum ve sonra gizli katman için farklı aktivasyonlar denedim: relu sigmoid Softmax (peki, genellikle softmax son katmanda kullanılır ..) Relu en iyi tren doğruluğunu ve doğrulama doğruluğunu verir. Bunu nasıl açıklayacağımdan emin değilim. Relu’nun gradyan-yok oluşu gibi seyreklik …

1
Otomatik kodlayıcılar için kayıp fonksiyonu
Biraz otomatik kodlayıcıları deniyorum ve tensorflow ile MNIST veri kümesini yeniden yapılandırmaya çalışan bir model oluşturdum. Ağım çok basit: X, e1, e2, d1, Y, burada e1 ve e2 katmanları kodlar, d2 ve Y katmanları çözer (ve Y yeniden yapılandırılmış çıktıdır). X'in 784 birimi, e1'in 100, e2'nin 50, d1'in tekrar 100 …


5
Derin öğrenme: Hangi değişkenlerin önemli olduğunu nasıl bilebilirim?
Sinir ağı lingo açısından (y = Ağırlık * x + önyargı) hangi değişkenlerin diğerlerinden daha önemli olduğunu nasıl bilebilirim? 10 giriş, 1 düğüm 20 düğüm ve 1 düğüm olan 1 çıkış katmanı ile bir sinir ağı var. Hangi giriş değişkenlerinin diğer değişkenlerden daha etkili olduğunu nasıl bileceğimden emin değilim. Düşündüğüm …

3
Sinir ağındaki örnekler, zaman adımları ve özellikler arasındaki fark
LSTM sinir ağında aşağıdaki blogdan geçiyorum: http://machinelearningmastery.com/understanding-stateful-lstm-recurrent-neural-networks-python-keras/ Yazar, giriş vektörü X'i LSTM'lerin farklı konfigürasyonu için [örnekler, zaman adımları, özellikler] olarak yeniden şekillendirir. Yazar yazar Aslında, harf dizileri ayrı özelliklerin bir zaman basamağı yerine bir unsurun zaman basamaklarıdır. Ağa daha fazla bağlam verdik, ancak beklediğimizden daha fazla sıralama yapmadık Ne anlama …

2
Toplamlar yerine partilerin ortalama kaybını en aza indirmek yaygın bir uygulama mıdır?
Tensorflow, CIFAR-10'u sınıflandırma hakkında örnek bir öğreticiye sahiptir . Eğitimde, toplu işteki ortalama çapraz entropi kaybı en aza indirilmiştir. def loss(logits, labels): """Add L2Loss to all the trainable variables. Add summary for for "Loss" and "Loss/avg". Args: logits: Logits from inference(). labels: Labels from distorted_inputs or inputs(). 1-D tensor of …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.