J'ai commencé à en apprendre davantage sur les réseaux de neurones avec le didacticiel neuromnetworksanddeeplearning dot com. En particulier dans le 3ème chapitre, il y a une section sur la fonction d'entropie croisée, et définit la perte d'entropie croisée comme:
Cependant, à la lecture de l' introduction de Tensorflow , la perte d'entropie croisée est définie comme suit:
(en utilisant les mêmes symboles que ci-dessus)
Puis en cherchant autour de moi pour trouver ce qui se passait, j'ai trouvé un autre ensemble de notes: ( https://cs231n.github.io/linear-classify/#softmax-classifier ) qui utilise une définition complètement différente de la perte d'entropie croisée, bien que ceci temps pour un classificateur softmax plutôt que pour un réseau de neurones.
Quelqu'un peut-il m'expliquer ce qui se passe ici? Pourquoi y a-t-il des écarts entre les deux. quelles personnes définissent la perte d'entropie croisée? Y a-t-il juste un principe primordial?