Supposons que j'ai un réseau neuronal simple couche, avec n entrées et une seule sortie (tâche de classification binaire). Si je définis la fonction d'activation dans le nœud de sortie comme une fonction sigmoïde, le résultat est un classificateur de régression logistique.
Dans ce même scénario, si je change l'activation de la sortie en ReLU (unité linéaire rectifiée), la structure résultante est-elle identique ou similaire à un SVM?
Sinon pourquoi?