Je suis récemment tombé sur tf.nn.sparse_softmax_cross_entropy_with_logits et je ne peux pas comprendre quelle est la différence par rapport à tf.nn.softmax_cross_entropy_with_logits .
La seule différence est-elle que les vecteurs d'apprentissage y
doivent être encodés à chaud lors de l'utilisation sparse_softmax_cross_entropy_with_logits
?
En lisant l'API, je n'ai pas pu trouver d'autre différence par rapport à softmax_cross_entropy_with_logits
. Mais pourquoi avons-nous besoin de la fonction supplémentaire alors?
Ne devrait pas softmax_cross_entropy_with_logits
produire les mêmes résultats que sparse_softmax_cross_entropy_with_logits
s'il est fourni avec des données / vecteurs d'apprentissage encodés à chaud?