Cherché haut et bas et n'ont pas été en mesure de savoir ce que AUC, en ce qui concerne la prédiction, signifie ou signifie.
Cherché haut et bas et n'ont pas été en mesure de savoir ce que AUC, en ce qui concerne la prédiction, signifie ou signifie.
Réponses:
Par AUC, on entend le plus souvent AUROC, ce qui est une mauvaise pratique puisque Marc Claesen l'a souligné, elle est ambiguë (pourrait être n'importe quelle courbe), contrairement à AUROC.
L'AUROC a plusieurs interprétations équivalentes :
Aller plus loin: Comment dériver l'interprétation probabiliste de l'AUROC?
Supposons que nous ayons un classifieur binaire probabiliste tel que la régression logistique.
Avant de présenter la courbe ROC (= courbe caractéristique de fonctionnement du récepteur), il faut comprendre le concept de matrice de confusion . Lorsque nous faisons une prédiction binaire, il peut y avoir 4 types de résultats:
Pour obtenir la matrice de confusion, nous passons en revue toutes les prédictions faites par le modèle et comptons combien de fois chacun de ces 4 types de résultats se produit:
Dans cet exemple de matrice de confusion, parmi les 50 points de données classés, 45 sont correctement classés et les 5 sont classés incorrectement.
Etant donné que pour comparer deux modèles différents, il est souvent plus pratique d'avoir une seule métrique plutôt que plusieurs, nous calculons deux métriques à partir de la matrice de confusion, que nous combinerons plus tard en un seul:
Pour combiner le FPR et le TPR en une seule métrique, calculons d’abord les deux métriques antérieures avec de nombreux seuils différents (par exemple, ) pour la régression logistique, puis les plaçons sur un seul graphique, avec les valeurs FPR en abscisse et les valeurs TPR en ordonnée. La courbe résultante est appelée courbe ROC et la métrique que nous considérons est l’ASC de cette courbe, que nous appelons AUROC.
La figure suivante montre graphiquement l'AUROC:
Sur cette figure, la zone bleue correspond à la zone située sous la courbe de la caractéristique de fonctionnement du récepteur (AUROC). La ligne pointillée de la diagonale présente la courbe ROC d’un prédicteur aléatoire: son AUROC est de 0,5. Le prédicteur aléatoire est couramment utilisé comme base pour voir si le modèle est utile.
Si vous voulez avoir une expérience de première main:
Bien que je sois un peu en retard à la fête, mais voici mes 5 cents. @FranckDernoncourt (+1) a déjà mentionné les interprétations possibles du ROC AUC, et mon préféré est le premier sur sa liste (j'utilise un libellé différent, mais ce sont les mêmes):
l'ASC d'un classificateur est égale à la probabilité qu'il classera un exemple positif choisi au hasard plus élevé qu'un exemple négatif choisi au hasard, à savoir
Considérons cet exemple (auc = 0.68):
Essayons de le simuler: tirons des exemples positifs et négatifs aléatoires, puis calculons la proportion de cas où les résultats positifs sont supérieurs aux résultats négatifs.
cls = c('P', 'P', 'N', 'P', 'P', 'P', 'N', 'N', 'P', 'N', 'P',
'N', 'P', 'N', 'N', 'N', 'P', 'N', 'P', 'N')
score = c(0.9, 0.8, 0.7, 0.6, 0.55, 0.51, 0.49, 0.43, 0.42, 0.39, 0.33,
0.31, 0.23, 0.22, 0.19, 0.15, 0.12, 0.11, 0.04, 0.01)
pos = score[cls == 'P']
neg = score[cls == 'N']
set.seed(14)
p = replicate(50000, sample(pos, size=1) > sample(neg, size=1))
mean(p)
Et nous obtenons 0.67926. Assez proche, n'est-ce pas?
À propos, dans RI, on utilise généralement le package ROCR pour dessiner des courbes ROC et calculer l'AUC.
library('ROCR')
pred = prediction(score, cls)
roc = performance(pred, "tpr", "fpr")
plot(roc, lwd=2, colorize=TRUE)
lines(x=c(0, 1), y=c(0, 1), col="black", lwd=1)
auc = performance(pred, "auc")
auc = unlist(auc@y.values)
auc
Des considérations importantes ne sont incluses dans aucune de ces discussions. Les procédures décrites ci-dessus invitent à un seuillage inapproprié et utilisent des règles (proportions) de notation de précision incorrectes qui sont optimisées en choisissant les mauvaises caractéristiques et en leur attribuant les mauvaises pondérations.
La dichotomisation des prédictions continues va à l’encontre de la théorie de la décision optimale. Les courbes ROC ne fournissent aucun aperçu exploitable. Ils sont devenus obligatoires sans que les chercheurs en examinent les avantages. Ils ont un très grand ratio encre: information.
Les décisions optimales ne considèrent pas les "positifs" et les "négatifs", mais plutôt la probabilité estimée du résultat. La fonction utilité / coût / perte, qui ne joue aucun rôle dans la construction du ROC, d'où l'inutilité des ROC, est utilisée pour traduire l'estimation du risque en une décision optimale (par exemple, la perte attendue la plus faible).
L’objectif d’un modèle statistique est souvent de faire une prédiction et l’analyste doit souvent s’arrêter là parce qu’il peut ne pas connaître la fonction de perte. Les éléments clés de la prédiction pour valider sans biais (par exemple, en utilisant le bootstrap) sont la discrimination prédictive ( d' une manière semi-bonne pour mesurer c'est la probabilité de concordance qui se trouve égale à la surface sous la ROC , mais peut être plus facile à comprendre si vous don « t tirer le ROC) et la courbe d'étalonnage. La validation de l'étalonnage est vraiment, vraiment nécessaire si vous utilisez des prédictions sur une échelle absolue.
Voir le chapitre Perte d'informations dans Biostatistics for Biomedical Research et d'autres chapitres pour plus d'informations.
AUC est l'abréviation de area under the curve . Il est utilisé dans l'analyse de classification afin de déterminer lequel des modèles utilisés prédit le mieux les classes.
Les courbes ROC sont un exemple d'application. Ici, les vrais taux positifs sont comparés aux faux positifs. Un exemple est ci-dessous. Plus l'AUC d'un modèle est proche de 1, mieux c'est. Les modèles avec des ASC plus élevées sont donc préférés aux modèles avec des ASC plus faibles.
Veuillez noter qu'il existe également d'autres méthodes que les courbes ROC, mais elles sont également liées aux taux de vrais positifs et de faux positifs, par exemple les courbes de rappel de précision, de score F1 ou de Lorenz.
auc
balise que vous avez utilisée: stats.stackexchange.com/questions/tagged/auc