4
Pourquoi tanh est-il presque toujours meilleur que sigmoïde comme fonction d'activation?
Dans le cours sur les réseaux neuronaux et l'apprentissage profond d' Andrew Ng sur Coursera, il dit que l'utilisation de tanhtanhtanh est presque toujours préférable à l'utilisation de sigmoidsigmoidsigmoid . La raison qu'il donne est que les sorties utilisant tanhtanhtanh centrées autour de 0 plutôt que de 0,5, ce qui …