Réponses:
Le bruit dans les données, dans une mesure raisonnable, peut aider le réseau à mieux se généraliser. Parfois, cela a l'effet inverse. Cela dépend en partie du type de bruit ("vrai" vs artificiel).
La FAQ AI sur ANN donne un bon aperçu. Extrait:
Le bruit dans les données réelles n'est jamais une bonne chose, car il limite la précision de la généralisation qui peut être réalisée quelle que soit l'étendue de l'ensemble de formation. D'un autre côté, l'injection de bruit artificiel (gigue) dans les entrées pendant l'entraînement est l'une des nombreuses façons d'améliorer la généralisation pour des fonctions fluides lorsque vous avez un petit ensemble d'entraînement.
Dans certains domaines, comme la vision par ordinateur, il est courant d'augmenter la taille de l'ensemble d'entraînement en copiant certains échantillons et en ajoutant des bruits ou d'autres transformations.
Nous pensons généralement que les modèles d'apprentissage automatique modélisent deux parties différentes des données de formation - la vérité généralisable sous-jacente (le signal) et le caractère aléatoire spécifique à cet ensemble de données (le bruit).
L'ajustement de ces deux pièces augmente la précision de l'ensemble d'entraînement, mais l'ajustement du signal augmente également la précision de l'ensemble de test (et les performances réelles) tandis que l'ajustement du bruit diminue les deux. Nous utilisons donc des choses comme la régularisation et le décrochage et des techniques similaires afin de rendre plus difficile l'adaptation au bruit, et donc plus susceptibles d'adapter le signal.
L'augmentation de la quantité de bruit dans les données d'entraînement est une de ces approches, mais il semble peu probable qu'elle soit aussi utile. Comparez la gigue aléatoire à la stimulation antagoniste, par exemple; le premier améliorera lentement et indirectement la robustesse tandis que le second l'améliorera de façon spectaculaire et directe.
PS: Il y a déjà de très bonnes réponses fournies ici, je vais simplement ajouter à ces réponses dans l'espoir que quelqu'un trouvera cela utile:
L'introduction de bruit dans un ensemble de données peut en effet avoir une influence positive sur un modèle. En fait, cela peut être vu comme faisant la même chose que vous feriez normalement avec des régularisateurs comme le décrochage . Une partie de l'exemple de le faire sont Zur at.al , Cires¸at.al où les auteurs ont introduit avec succès le bruit dans l'ensemble de données pour réduire surajustement.
Le hic, c'est de savoir combien de bruit c'est trop. Si vous ajoutez trop de bruit, cela pourrait rendre votre jeu de données inutile dans la mesure où le jeu de données résultant pourrait ne plus contenir suffisamment de ressemblance avec le jeu de données d'origine, vous pourriez donc aussi bien vous entraîner sur un jeu de données complètement différent. Ainsi, trop de bruit pourrait entraîner un sous-ajustement, tout comme des taux d'abandon extrêmement élevés.
Comme on dit; changer l' équilibre est le piment de la vie :).