Geçenlerde tf.nn.sparse_softmax_cross_entropy_with_logits ile karşılaştım ve tf.nn.softmax_cross_entropy_with_logits ile karşılaştırıldığında farkın ne olduğunu anlayamıyorum .
Eğitim vektörler o tek fark mı y
olmak zorunda tek sıcak kodlanmış kullanırken sparse_softmax_cross_entropy_with_logits
?
API'yi okurken, ile karşılaştırıldığında başka bir fark bulamadım softmax_cross_entropy_with_logits
. Ama o halde neden ekstra işleve ihtiyacımız var?
Tek çalışırken kodlanmış eğitim verileri / vektörleri ile sağlanmışsa softmax_cross_entropy_with_logits
aynı sonuçları vermemeli sparse_softmax_cross_entropy_with_logits
mi?