Le pool de mesures d'erreur que vous pouvez choisir est différent entre la classification et la régression. Dans ce dernier, vous essayez de prédire une valeur continue, et avec la classification, vous prédisez des classes discrètes telles que "sain" ou "pas sain". D'après les exemples que vous avez mentionnés, l'erreur quadratique moyenne serait applicable pour la régression et l'ASC pour la classification avec deux classes.
Permettez-moi de vous donner un peu plus de détails sur la classification. Vous avez mentionné l'AUC comme mesure, qui est l'aire sous la courbe ROC, qui n'est généralement appliqué qu'aux problèmes de classification binaire avec deux classes. Bien qu'il existe des moyens de construire une courbe ROC pour plus de deux classes, ils perdent la simplicité de la courbe ROC pour deux classes. De plus, les courbes ROC ne peuvent être construites que si le classificateur de choix génère une sorte de score associé à chaque prédiction. Par exemple, la régression logistique vous donnera des probabilités pour chacune des deux classes. En plus de leur simplicité, les courbes ROC ont l'avantage de ne pas être affectées par le rapport entre les instances étiquetées positivement et négativement dans vos ensembles de données et ne vous obligent pas à choisir un seuil. Néanmoins, il est recommandé de regarder non seulement la courbe ROC seule, mais également d'autres visualisations. Je recommanderais de regarder les courbes de rappel de précision et les courbes de coût.une vraie mesure d'erreur, ils ont tous leurs forces et leurs faiblesses.
La littérature que j'ai trouvée utile à cet égard est:
- Fawcett, T. (2006). Une introduction à l'analyse ROC . Lettres de reconnaissance de formes, 27 (8), 861–874.
- Drummond, C. et Holte, R. (2006). Courbes de coûts: une méthode améliorée pour visualiser les performances du classificateur . Apprentissage automatique, 65 (1), 95–130
- Parker, C. (2011). Une analyse des mesures de performance pour les classificateurs binaires . 2011 11e Conférence internationale de l'IEEE sur l'exploration de données (pp. 517–526)
- Davis, J. et Goadrich, M. (2006). La relation entre les courbes Précision-Rappel et ROC . Actes de la 23e conférence internationale sur l'apprentissage automatique (pp. 233-240). New York, NY, États-Unis: ACM
Si votre classificateur ne fournit pas de score, vous devez vous rabattre sur les mesures de base qui peuvent être obtenues à partir d'une matrice de confusion contenant le nombre de vrais positifs, faux positifs, vrais négatifs et faux négatifs. Les visualisations mentionnées ci-dessus (ROC, précision-rappel, courbe de coût) sont toutes basées sur ces tableaux obtenus en utilisant un seuil différent du score du classifieur. La mesure la plus populaire dans ce cas est probablement la mesure F1. De plus, il existe une longue liste de mesures que vous pouvez récupérer dans une matrice de confusion: sensibilité, spécificité, valeur prédictive positive, valeur prédictive négative, précision, coefficient de corrélation de Matthews,… Tout comme les courbes ROC, les matrices de confusion sont très faciles à comprendre dans le problème de classification binaire, mais devient plus compliqué avec plusieurs classes, car pour classes, vous devez considérer soit une seule table ou tables chacune comparant l'une des classes ( ) avec toutes les autres classes (pas ).NN× NN 2 × 2UNEUNE