Je dois appliquer la fonction d'activation Softmax au Perceptron multicouche dans scikit. Le scikit documantation sur le thème des modèles de réseaux de neurones (supervisé) dit « MLPClassifier soutient la classification multi-classe en appliquant Softmax comme la fonction de sortie. » La question est de savoir comment appliquer la fonction?
Dans l'extrait de code ci-dessous, lorsque j'ajoute le Softmax sous le paramètre d'activation, il n'accepte pas.
MLPClassifier(activation='Softmax', alpha=1e-05, batch_size='auto',
beta_1=0.9, beta_2=0.999, early_stopping=False,
epsilon=1e-08, hidden_layer_sizes=(15,), learning_rate='constant',
learning_rate_init=0.001, max_iter=200, momentum=0.9,
nesterovs_momentum=True, power_t=0.5, random_state=1, shuffle=True,
solver='lbfgs', tol=0.0001, validation_fraction=0.1, verbose=False,
warm_start=False)
Le code d'erreur est:
ValueError: L'activation 'Softmax' n'est pas prise en charge. Les activations prises en charge sont ('identité', 'logistique', 'tanh', 'relu').
Existe-t-il un moyen d'appliquer la fonction d'activation Softmax pour la classification multi-classes dans scikit-learn?