Özellikle, bu ifadeyi merak ediyorum galiba:
TensorFlow'un gelecekteki ana sürümleri, gradyanların varsayılan olarak backprop'taki etiket girişlerine akmasına izin verecek.
Kullandığımda gösteriliyor tf.nn.softmax_cross_entropy_with_logits
. Aynı mesajda beni incelemeye çağırıyor tf.nn.softmax_cross_entropy_with_logits_v2
. Dokümantasyona baktım, ancak yalnızca şunu belirtir tf.nn.softmax_cross_entropy_with_logits_v2
:
Geri yayılım hem logitlerde hem de etiketlerde gerçekleşecek. Etiketlerin geri yayılmasını engellemek için, etiket tensörlerini bu fonksiyona beslemeden önce bir stop_gradients içinden geçirin.
aksine tf.nn.softmax_cross_entropy_with_logits
:
Geriye yayılım sadece logitlere gerçekleşecek.
Konuyla ilgili çok yeni olmak (bazı temel derslerden geçmeye çalışıyorum) bu ifadeler pek net değil. Geri yayılım konusunda sığ bir anlayışa sahibim, ancak önceki ifadenin anlamı ne? Geri yayılım ve etiketler nasıl bağlanır? Ve bu tf.nn.softmax_cross_entropy_with_logits_v2
, orijinalin aksine nasıl çalıştığımı nasıl değiştiriyor ?
softmax_..._with_logits_v2
gibi çalışacaklarsoftmax_with_logits
mı? (Ya da etiket değişkeninde tf.stop_gradient kullanabilirim.)