Imaginez que vous montriez cent fois sur un réseau de neurones l'image d'un lion et que vous étiquetiez «dangereux», de sorte qu'il découvre que les lions sont dangereux.
Imaginez maintenant que vous lui avez déjà montré des millions d’images de lions et que vous l’aviez étiquetée comme "dangereux" et "non dangereux", de sorte que la probabilité qu’un lion soit dangereux est de 50%.
Mais ces 100 dernières fois ont poussé le réseau de neurones à être très positif quant à considérer le lion comme "dangereux", ignorant ainsi le dernier million de leçons.
Par conséquent, il semble que les réseaux de neurones présentent un défaut: ils peuvent changer d'avis trop rapidement en se basant sur des preuves récentes. Surtout si cette preuve précédente était au milieu.
Existe-t-il un modèle de réseau de neurones qui garde en mémoire le nombre de preuves qu'il a vues? (Ou cela équivaudrait-il à laisser le taux d'apprentissage diminuer de où est le nombre d'essais?)