2
Pourquoi ReLU est-il utilisé comme fonction d'activation?
Les fonctions d'activation sont utilisées pour introduire des non-linéarités dans la sortie linéaire du type w * x + bdans un réseau neuronal. Ce que je peux comprendre intuitivement pour les fonctions d'activation comme sigmoïde. Je comprends les avantages de ReLU, qui évite les neurones morts pendant la rétropropagation. Cependant, …