2
Pourquoi l'entropie croisée est-elle devenue la fonction de perte standard de classification et non la divergence de Kullbeck Leibler?
L'entropie croisée est identique à la divergence KL plus l'entropie de la distribution cible. KL est égal à zéro lorsque les deux distributions sont identiques, ce qui me semble plus intuitif que l'entropie de la distribution cible, qui correspond à l'entropie croisée sur une correspondance. Je ne dis pas qu'il …