Comment utilisez-vous LeakyRelu comme fonction d'activation dans la séquence DNN en keras? Si je veux écrire quelque chose de similaire à:
model = Sequential()
model.add(Dense(90, activation='LeakyRelu'))
Quelle est la solution? Mettez LeakyRelu similaire à Relu?
La deuxième question est: quel est le meilleur réglage général pour régler les paramètres de LeakyRelu? Quand ses performances sont-elles significativement meilleures que celles de Relu?