«adam» etiketlenmiş sorular

5
Üstel çürüme ile Adam optimizer
Tensorflow kodlarının çoğunda, Adam Optimizer’ın sabit bir Öğrenme Hızı 1e-4(yani 0.0001) ile kullanıldığını gördüm . Kod genellikle aşağıdakilere bakar: ...build the model... # Add the optimizer train_op = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy) # Add the ops to initialize variables. These will include # the optimizer slots added by AdamOptimizer(). init_op = tf.initialize_all_variables() # …

1
Adam stokastik gradyan iniş yöntemi nasıl çalışır?
Sinir ağlarını eğitmek için temel degrade iniş algoritmalarına aşinayım. Adam: ADAM: STOKASTİK OPTİMİZASYON İÇİN BİR YÖNTEM öneren makaleyi okudum . Kesinlikle en azından bazı görüşlere sahip olmama rağmen , kağıt benim için genel olarak çok yüksek görünüyor. Örneğin, bir maliyet fonksiyonu çoğu zaman birçok farklı fonksiyonun toplamıdır, bu nedenle değerini …

3
Adam Optimizer'ın hiper parametrelerinin değerine sağlam olarak kabul edilmesinin nedeni nedir?
Deep Learning için Adam optimizerini okuyordum ve Bengio, Goodfellow ve Courville tarafından yazılan Deep Learning adlı yeni kitapta şu cümleyi okudum: Adam genel olarak hiper parametrelerinin seçimine oldukça sağlam olarak kabul edilir, ancak öğrenme oranının bazen önerilen varsayılan değerden değiştirilmesi gerekir. eğer bu doğruysa, bu büyük bir sorun çünkü hiper …

2
Adam Optimizer ile eğitim kaybı ve iterasyondaki ani artışların açıklaması
İ) SGD ve ii) Adam Optimizer kullanarak bir sinir ağı eğitimi alıyorum. Normal SGD kullanırken, aşağıda görüldüğü gibi (kırmızı olan) iterasyon eğrisine karşı pürüzsüz bir eğitim kaybı yaşarım . Ancak, Adam Optimizer'ı kullandığımda, eğitim kaybı eğrisinde bazı artışlar var. Bu ani yükselişlerin açıklaması nedir? Model Detayları: 14 giriş düğümü -> …

1
Derin Öğrenme için Adam optimizatörü için bir önyargı düzeltme terimi eklemek neden önemlidir?
Derin Öğrenme için Adam optimizer hakkında okuyordum ve Begnio, Goodfellow ve Courtville'in yeni Deep Learning kitabında şu cümle ile karşılaştım: Adam, başlangıç ​​noktasındaki başlangıçlarını hesaplamak için hem birinci dereceden momentlerin (momentum terimi) hem de (merkezsiz) ikinci dereceden momentlerin tahminlerine önyargı düzeltmeleri içerir. bu önyargı düzeltme terimlerini dahil etmenin temel nedeni, …

1
RMSProp ve Adam ve SGD
RMSProp, Adam ve SGD ile ağları kullanarak EMNIST doğrulama seti üzerinde deneyler yapıyorum. SGD (öğrenme oranı 0.1) ve bırakma (0.1 bırakma probu) ile L2 düzenlenmesi (1e-05 cezası) ile% 87 doğruluk elde ediyorum. RMSProp ve Adam ile aynı yapılandırmayı ve 0.001 başlangıç ​​öğrenme oranını test ederken,% 85 doğruluk ve daha az …
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.