La signification intuitive la plus proche du score f1 est perçue comme la moyenne du rappel et de la précision. Éclaircissons-le pour vous:
Dans une tâche de classification, vous envisagez peut-être de créer un classificateur avec une précision élevée ET un rappel. Par exemple, un classificateur qui indique si une personne est honnête ou non.
Par précision, vous êtes généralement en mesure de dire avec précision le nombre de personnes honnêtes dans un groupe donné. Dans ce cas, lorsque vous vous souciez de la haute précision, vous supposez que vous pouvez classifier une personne menteuse comme une personne honnête mais pas souvent. En d'autres termes, vous essayez ici d'identifier le menteur comme un groupe honnête.
Cependant, pour rappel, vous serez vraiment inquiet si vous pensez qu'une personne menteuse est honnête. Pour vous, ce sera une grande perte et une grosse erreur et vous ne voulez plus recommencer. En outre, vous pouvez classer une personne honnête comme menteuse, mais votre modèle ne devrait jamais (ou surtout ne pas le faire) prétendre qu'une personne menteuse est honnête. En d'autres termes, vous vous concentrez ici sur une classe spécifique et vous essayez de ne pas vous tromper.
À présent, prenons le cas où vous souhaitez que votre modèle (1) identifie avec précision un honnête menteur (précision) (2) identifie chaque personne des deux classes (rappel). Ce qui signifie que vous sélectionnerez le modèle qui fonctionnera bien avec les deux métriques.
Votre décision de sélection de modèle tentera ensuite d'évaluer chaque modèle en fonction de la moyenne des deux métriques. F-Score est le meilleur qui puisse décrire cela. Regardons la formule:
Rappel: p = tp / (tp + fp)
Rappel: r = tp / (tp + fn)
F-score: fscore = 2 / (1 / r + 1 / p)
Comme vous le voyez, plus le rappel ET la précision sont élevés, plus le F-score est élevé.