J'ai lu ceci:
Pour former notre réseau de neurones, nous initialiserons chaque paramètre W (l) ijWij (l) et chaque b (l) ibi (l) à une petite valeur aléatoire proche de zéro (disons selon un Normal (0, ϵ2) Normal (0 , ϵ2) distribution pour certains petits ϵϵ, disons 0,01)
de Stanford Deep learning tutorials au 7ème paragraphe de l' algorithme de rétropropagation
Ce que je ne comprends pas, c'est pourquoi l'initialisation du poids ou du biais devrait être autour de 0 ?