Dans le Deep Learning de François Chollet avec Python, il est écrit:
Par conséquent, le réglage de la configuration du modèle en fonction de ses performances sur l'ensemble de validation peut rapidement entraîner un surajustement de l'ensemble de validation, même si votre modèle n'est jamais directement formé sur celui-ci.
La notion de fuite d'informations est au cœur de ce phénomène. Chaque fois que vous ajustez un hyperparamètre de votre modèle en fonction des performances du modèle sur l'ensemble de validation, certaines informations sur les données de validation s'infiltrent dans le modèle . Si vous ne le faites qu'une seule fois, pour un paramètre, alors très peu de bits d'information fuiront et votre ensemble de validation restera fiable pour évaluer le modèle. Mais si vous répétez cette opération plusieurs fois, en exécutant une expérience, en évaluant l'ensemble de validation et en modifiant votre modèle en conséquence, vous ferez couler une quantité de plus en plus importante d'informations sur l'ensemble de validation dans le modèle.
Pourquoi des informations sur les données de validation ont-elles été divulguées si j'évalue les performances du modèle sur les données de validation lors du réglage des hyperparamètres?