J'entends souvent parler de l'évaluation des performances d'un modèle de classification en présentant l'ensemble de test et en entraînant un modèle sur l'ensemble de formation. Puis création de 2 vecteurs, un pour les valeurs prédites et un pour les vraies valeurs. Évidemment, faire une comparaison permet de juger des performances du modèle par sa puissance prédictive en utilisant des choses comme le F-Score, la statistique Kappa, la précision et le rappel, les courbes ROC, etc.
Comment cela se compare-t-il à l'évaluation d'une prédiction numérique comme la régression? Je suppose que vous pouvez former le modèle de régression sur l'ensemble d'entraînement, l'utiliser pour prédire des valeurs, puis comparer ces valeurs prédites aux vraies valeurs présentes dans l'ensemble de test. De toute évidence, les mesures de la performance devraient être différentes, car il ne s'agit pas d'une tâche de classification. Les valeurs résiduelles habituelles et les statistiques sont des mesures évidentes, mais existe-t-il des moyens plus / meilleurs d'évaluer les performances des modèles de régression? Il semble que la classification ait tant d'options mais la régression est laissée à et aux résidus.