Örnek kodu göz önünde bulundurarak .
Gradyanların patlaması olasılığının olduğu RNN'de bu ağda gradyan kırpmanın nasıl uygulanacağını bilmek istiyorum.
tf.clip_by_value(t, clip_value_min, clip_value_max, name=None)
Bu, kullanılabilecek bir örnek ama bunu nerede tanıtabilirim? RNN'nin aksine
lstm_cell = rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0)
# Split data because rnn cell needs a list of inputs for the RNN inner loop
_X = tf.split(0, n_steps, _X) # n_steps
tf.clip_by_value(_X, -1, 1, name=None)
Ancak bu, kesilecek olan grad değil, tensör _X girdi olduğundan mantıklı değil mi?
Bunun için kendi Doktorumu tanımlamam gerekiyor mu yoksa daha basit bir seçenek var mı?
optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost)
ve daha sonra bir iyileştirici yinelemesi yapılır,optimizer.run()
ancakoptimizer.run()
bu durumda kullanılması işe yaramıyor gibi görünüyor?