Précision équilibrée vs score F-1


15

Je me demandais si quelqu'un pouvait expliquer la différence entre une précision équilibrée qui est

b_acc = (sensitivity + specificity)/2

et le score f1 qui est:

f1 = 2*precision*recall/(precision + recall) 

Réponses:


19

Mathématiquement, b_acc est la moyenne arithmétique de rappel_P et rappel_N et f1 est la moyenne harmonique de rappel_P et précision_P.

F1 et b_acc sont des métriques pour l'évaluation du classificateur, qui (dans une certaine mesure) gèrent le déséquilibre de classe. Selon laquelle des deux classes (N ou P) est supérieure à l'autre, chaque métrique est supérieure à l'autre.

1) Si N >> P, f1 est meilleur.

2) Si P >> N, b_acc est meilleur.

De toute évidence, si vous pouvez changer d'étiquette, les deux mesures peuvent être utilisées dans l'un des deux cas de déséquilibre ci-dessus. Sinon, en fonction du déséquilibre dans les données d'entraînement, vous pouvez sélectionner la métrique appropriée.


1
Merci monsieur, Avez-vous une référence pour les informations concernant le choix de Fscore vs précision équilibrée en termes de nombre de classes positives / négatives?
gin

J'aimerais appuyer la demande de @ gin pour plus d'informations sur la façon de choisir entre les deux. J'ai quelques données où le N est d'environ 8%. Par réponse ci-dessus, il semble que je devrais utiliser la précision équilibrée. J'ai cherché d'autres références sur ce choix (P> N -> b_acc) mais je n'ai rien vu.
anguyen1210

Cela n'a aucun sens pour moi. La précision équilibrée est invariante lors du changement d'étiquette. Comment pouvez-vous "l'améliorer" en changeant d'étiquette si elle ne change pas?
TC Proctor
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.