Comparaison de deux modèles lorsque les courbes ROC se croisent


13

Une mesure courante utilisée pour comparer deux modèles de classification ou plus consiste à utiliser l'aire sous la courbe ROC (AUC) comme moyen d'évaluer indirectement leur performance. Dans ce cas, un modèle avec une AUC plus grande est généralement interprété comme plus performant qu'un modèle avec une AUC plus petite. Mais, selon Vihinen, 2012 ( https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3303716/ ), lorsque les deux courbes se croisent, une telle comparaison n'est plus valide. Pourquoi en est-il ainsi?

Par exemple, que pourrait-on vérifier sur les modèles A, B et C basés sur les courbes ROC et les AUC ci-dessous?

entrez la description de l'image ici

Réponses:


19

Une courbe ROC visualise TPR et FPR pour tous les seuils possibles .

  • Si vous tracez deux courbes ROC 'A' et 'B' et qu'elles ne se croisent pas , alors l'un de vos classificateurs fonctionne clairement mieux, car pour toutes les valeurs FPR possibles, vous obtenez un TPR plus élevé. De toute évidence, la zone relevant du ROC sera également plus grande.

  • Maintenant, s'ils se croisent , il y a un point où FPR et TPR sont les mêmes pour les deux courbes «A» et «B» . Vous ne pouvez plus dire qu'une courbe ROC fonctionne mieux, car cela dépend maintenant du compromis que vous préférez. Voulez-vous une haute précision / faible rappel ou une faible précision / haut rappel ?

Exemple: si un classificateur fonctionne beaucoup mieux sur un FPR de 0,2, mais qu'il est important d'atteindre un taux de rappel élevé , il fonctionne bien sur un seuil qui ne vous intéresse pas.

À propos des courbes ROC dans votre graphique: Vous pouvez facilement dire que «A» fonctionne beaucoup mieux, sans même savoir ce que vous voulez réaliser. Dès que la courbe violette croise les autres, elle les traverse à nouveau. Vous n'êtes probablement pas intéressé par cette petite partie , où «B» et «C» fonctionnent légèrement mieux .

Dans le graphique suivant, vous voyez deux courbes ROC, qui se croisent également. Ici, vous ne pouvez pas dire lequel est le meilleur car ils se complètent en quelque sorte .

Traverser les courbes ROC

Notez qu'à la fin de la journée, vous êtes intéressé à choisir un seuil pour votre classification et l' AUC ne vous donne qu'une estimation de la performance d'un modèle en général .


Juste pour confirmation, dans mon exemple, si je choisis une valeur de coupure très élevée, où la précision est grande, le modèle A surpasserait B et C par une bonne marge?
Edu

Comment savez-vous où la précision est grande? Il s'agit d'un ROC, pas d'une courbe de précision-rappel. Pour la précision, vous vérifiez la probabilité de vrai positif, étant donné que votre classificateur a dit positif.
Laksan Nathan
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.