Questions marquées «softmax»



3
Quelle est la différence entre sparse_softmax_cross_entropy_with_logits et softmax_cross_entropy_with_logits?
Je suis récemment tombé sur tf.nn.sparse_softmax_cross_entropy_with_logits et je ne peux pas comprendre quelle est la différence par rapport à tf.nn.softmax_cross_entropy_with_logits . La seule différence est-elle que les vecteurs d'apprentissage ydoivent être encodés à chaud lors de l'utilisation sparse_softmax_cross_entropy_with_logits? En lisant l'API, je n'ai pas pu trouver d'autre différence par rapport …
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.