Cette question donne une définition quantitative de l'entropie croisée, en termes de formule.
Je cherche une définition plus théorique, wikipedia dit:
En théorie de l'information, l'entropie croisée entre deux distributions de probabilité mesure le nombre moyen de bits nécessaires pour identifier un événement à partir d'un ensemble de possibilités, si un schéma de codage est utilisé sur la base d'une distribution de probabilité donnée q, plutôt que de la distribution "vraie" p .
J'ai souligné la partie qui me donne du mal à comprendre cela. Je voudrais une belle définition qui ne nécessite pas une compréhension séparée (préexistante) d'Entropie.