J'ai rencontré quelques moyens de base pour mesurer la complexité des réseaux de neurones:
- Naïf et informel: comptez le nombre de neurones, de neurones cachés, de couches ou de couches cachées
- Dimension VC (Eduardo D. Sontag [1998] "Dimension VC des réseaux de neurones" [ pdf ].)
- Une mesure de la complexité de calcul granulaire et asymptotique par équivalence à T C 0 d .
Existe-t-il d'autres alternatives?
Il est préférable:
- Si la métrique de complexité pouvait être utilisée pour mesurer des réseaux de neurones à partir de différents paradigmes (pour mesurer le backprop, les réseaux neuronaux dynamiques, la corrélation en cascade, etc.) à la même échelle. Par exemple, la dimension VC peut être utilisée pour différents types sur les réseaux (ou même des choses autres que les réseaux de neurones) tandis que le nombre de neurones n'est utile qu'entre des modèles très spécifiques où la fonction d'activation, les signaux (sommes de base vs pointes) et autres les propriétés du réseau sont les mêmes.
- S'il a de belles correspondances avec des mesures standard de la complexité des fonctions apprenables par le réseau
- S'il est facile de calculer la métrique sur des réseaux spécifiques (ce dernier n'est pas un must, cependant.)
Remarques
Cette question est basée sur une question plus générale sur CogSci.SE.