Pour le problème de régression, j'ai vu des gens utiliser le «coefficient de détermination» (alias R au carré) pour effectuer la sélection du modèle, par exemple pour trouver le coefficient de pénalité approprié pour la régularisation.
Cependant, il est également courant d'utiliser "l'erreur quadratique moyenne" ou "l'erreur quadratique moyenne" comme mesure de la précision de la régression.
Quelle est donc la principale différence entre ces deux? Pourraient-ils être utilisés de manière interchangeable pour les tâches de «régularisation» et de «régression»? Et quelle est la principale utilisation de chacun dans la pratique, comme dans l'apprentissage automatique, les tâches d'exploration de données?