Quelles sont les mesures de précision des données multi-étiquettes?


25

Envisagez un scénario dans lequel vous disposez de la matrice KnownLabel et de la matrice PredictedLabel. Je voudrais mesurer la qualité de la matrice PredictedLabel par rapport à la matrice KnownLabel.

Mais le défi ici est que la matrice de KnownLabel possède peu de lignes, un seul 1 et les autres lignes ont plusieurs 1 (ces instances sont multi-étiquetées). Un exemple de KnownLabel Matrix est donné ci-dessous.

A =[1 0 0 0
    0 1 0 0
    0 1 1 0
    0 0 1 1
    0 1 1 1]

Dans la matrice ci-dessus, les instances de données 1 et 2 sont des données d'étiquette unique, les instances de données 3 et 4 sont deux données d'étiquette et l'instance de données 5 est les trois données d'étiquette.

J'ai maintenant PredictedLabel Matrix d'instance de données utilisant un algorithme.

Je voudrais connaître diverses mesures qui peuvent être utilisées pour mesurer la qualité de la matrice PredictedLabel par rapport à la matrice KnownLabel.

Je peux penser à la différence de norme frobeinus entre eux comme l'une des mesures. Mais je cherche la mesure telle que la précision(=Correctly_predicted_instancetotal_instance)

Ici, comment pouvons-nous définir le pour plusieurs instances de données?Correctly_prejecte


5
(+1) Sidenote: Y a-t-il une raison spécifique pour laquelle vous n'avez pas accepté de réponse dans la majorité de vos questions? Pourquoi n'avez-vous pas posté de commentaire alors que la réponse fournie n'a pas résolu votre problème? Par exemple: stats.stackexchange.com/questions/9947/…
steffen

Réponses:


23

(1) donne un bon aperçu:

entrez la description de l'image ici

entrez la description de l'image ici

La classification multi-étiquettes de la page Wikipedia n contient également une section sur les paramètres d'évaluation.

J'ajouterais un avertissement que dans le paramètre multi-étiquettes, la précision est ambiguë: elle peut se référer soit au rapport de correspondance exact, soit au score de Hamming (voir cet article ). Malheureusement, de nombreux articles utilisent le terme «précision».


(1) Sorower, Mohammad S. " Une étude de la littérature sur les algorithmes pour l'apprentissage multi-labels. " Oregon State University, Corvallis (2010).


2
Ces définitions vont-elles à l'encontre des définitions générales de précision et de rappel? J'ai toujours lu que la précision devrait diviser par TP + FP et le rappel devrait diviser par TP + FN (les définitions proposées ici font le contraire si j'ai bien compris).
tomasyany

OuijeOui={0,1}kjeZje=h(Xje)={0,1}khOuijeZje

pour la accuracymesure, comment gérez-vous avec élégance les cas où le dénominateur |Y + Z| == 0?
ihadanny

3
@tomasyany fait référence aux définitions de texte (pas aux formules), qui semblent être inversées.
Narfanar

Et cette définition AP ressemble plus à mAP (AP moyen), non? Ce que l'on appelle la «précision» est l'IoU moyen. Les termes sont assez confus dans l'ensemble.
Narfanar


3

Correctly Predictedest l'intersection entre l'ensemble d'étiquettes suggérées et l'ensemble attendu. Total Instancesest l'union des ensembles ci-dessus (pas de nombre de doublons).

Donc, étant donné un seul exemple où vous prédisez des classes A, G, Eet le cas de test a E, A, H, Pcomme bons ceux que vous vous retrouvez avecAccuracy = Intersection{(A,G,E), (E,A,H,P)} / Union{(A,G,E), (E,A,H,P)} = 2 / 5

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.