Voici un exemple de matrice de confusion multi-classes en supposant que nos étiquettes de classe sont A, B et C
A / P A B C Somme
A 10 3 4 17
B 2 12 6 20
C 6 3 9 18
Somme 18 18 19 55
Maintenant, nous calculons trois valeurs pour Précision et Rappel chacun et les appelons Pa, Pb et Pc; et de même Ra, Rb, Rc.
Nous savons que Précision = TP / (TP + FP), donc pour Pa, le vrai positif sera le réel A prédit comme A, c'est-à-dire 10, le reste des deux cellules de cette colonne, que ce soit B ou C, rende faux positif. Donc
Pa = 10/18 = 0,55 Ra = 10/17 = 0,59
Maintenant, la précision et le rappel pour la classe B sont Pb et Rb. Pour la classe B, le vrai positif est le B réel prédit comme B, c'est-à-dire que la cellule contenant la valeur 12 et que les deux autres cellules de cette colonne deviennent fausses positives, donc
Pb = 12/18 = 0,67 Rb = 12/20 = 0,6
De même Pc = 9/19 = 0,47 Rc = 9/18 = 0,5
Les performances globales du classificateur seront déterminées par la précision moyenne et le rappel moyen. Pour cela, nous multiplions la valeur de précision pour chaque classe par le nombre réel d'instances pour cette classe, puis nous les ajoutons et les divisons par le nombre total d'instances. Comme ,
Précision moyenne = (0,55 * 17 + 0,67 * 20 + 0,47 * 18) / 55 = 31,21 / 55 = 0,57 Rappel moyen = (0,59 * 17 + 0,6 * 20 + 0,5 * 18) / 55 = 31,03 / 55 = 0,56
J'espère que ça aide