Questions marquées «cross-entropy»


3
Quelle est la différence entre sparse_softmax_cross_entropy_with_logits et softmax_cross_entropy_with_logits?
Je suis récemment tombé sur tf.nn.sparse_softmax_cross_entropy_with_logits et je ne peux pas comprendre quelle est la différence par rapport à tf.nn.softmax_cross_entropy_with_logits . La seule différence est-elle que les vecteurs d'apprentissage ydoivent être encodés à chaud lors de l'utilisation sparse_softmax_cross_entropy_with_logits? En lisant l'API, je n'ai pas pu trouver d'autre différence par rapport …

3
Qu'est-ce que l'entropie croisée?
Je sais qu'il y a beaucoup d'explications sur ce qu'est l'entropie croisée, mais je suis toujours confus. Est-ce seulement une méthode pour décrire la fonction de perte? Pouvons-nous utiliser l'algorithme de descente de gradient pour trouver le minimum en utilisant la fonction de perte?
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.