Il est assez intuitif que la plupart des topologies / architectures de réseaux de neurones ne soient pas identifiables. Mais quels sont les résultats bien connus sur le terrain? Existe-t-il des conditions simples qui permettent / empêchent l’identifiabilité? Par exemple,
- tous les réseaux avec des fonctions d'activation non linéaires et plusieurs couches cachées ne sont pas identifiables
- tous les réseaux avec plus de deux unités cachées ne sont pas identifiables
Ou des choses comme celles-ci. REMARQUE : je ne dis pas que ces conditions empêchent l'identification (bien qu'elles me semblent de très bons candidats). Ce ne sont que des exemples de ce que je veux dire par «conditions simples».
Si cela aide à affiner la question, n'hésitez pas à ne considérer que les architectures à action directe et récurrentes. Si cela ne suffit toujours pas, je serais satisfait d'une réponse qui couvrirait au moins une architecture parmi MLP, CNN et RNN. J'ai jeté un rapide coup d'œil sur le Web, mais il semble que la seule discussion que j'ai pu trouver était sur Reddit. Allez, les gens, nous pouvons faire mieux que Reddit ;-)