Je fais du prétraitement des données et je vais ensuite construire un Convonets sur mes données.
Ma question est: disons que j'ai un total de jeux de données avec 100 images, je calculais la moyenne pour chacune des 100 images, puis je la soustrais de chacune des images, puis je la divise en train et en jeu de validation, et je fais de même étapes à traiter sur un ensemble de tests donné, mais il semble que ce ne soit pas une manière correcte de le faire selon ce lien: http://cs231n.github.io/neural-networks-2/#datapre
" Piège commun . Un point important à souligner au sujet du prétraitement est que toutes les statistiques de prétraitement (par exemple, la moyenne des données) doivent uniquement être calculées sur les données de formation, puis appliquées aux données de validation / test. Par exemple, calculer la moyenne et la soustraire de chaque image à travers l'ensemble de données, puis la division des données en fractionnements train / val / test serait une erreur. Au lieu de cela, la moyenne doit être calculée uniquement sur les données de formation, puis soustraite également de toutes les divisions (train / val / test). "
Je suppose que ce que dit l'auteur est que, ne calculez pas la moyenne et ne la soustrayez pas dans chaque image, mais calculez la moyenne de l'ensemble des images (c'est-à-dire (image1 + ... + image100) / 100) et soustrayez la moyenne à chacune de l'image.
Je ne comprends pas très bien quelqu'un peut-il expliquer? et peut-être aussi expliquer pourquoi ce que je faisais est mal (si c'est vraiment faux).