Comment utilisez-vous LeakyRelu comme fonction d'activation dans la séquence DNN en keras? Si je veux écrire quelque chose de similaire à:
 model = Sequential()
    model.add(Dense(90, activation='LeakyRelu'))Quelle est la solution? Mettez LeakyRelu similaire à Relu?
La deuxième question est: quel est le meilleur réglage général pour régler les paramètres de LeakyRelu? Quand ses performances sont-elles significativement meilleures que celles de Relu?