De nombreuses fonctions d'activation dans les réseaux de neurones (sigmoïde, tanh, softmax) sont monotones, continues et différenciables (à l'exception de quelques points, où la dérivée n'existe pas).
Je comprends la raison de la continuité et de la différentiabilité, mais je ne peux pas vraiment comprendre la raison de la monotonie.