Donc, en regardant les réseaux de neurones à fonction de base radiale, j'ai remarqué que les gens ne recommandent que l'utilisation d'une seule couche cachée, alors qu'avec les réseaux de neurones perceptron multicouches, plus de couches sont considérées comme meilleures.
Étant donné que les réseaux RBF peuvent être entraînés avec une version de rétropropagation, y a-t-il des raisons pour lesquelles les réseaux RBF plus profonds ne fonctionneraient pas, ou qu'une couche RBF ne pourrait pas être utilisée comme avant-dernière ou première couche dans un réseau MLP profond? (Je pensais à l'avant-dernière couche pour qu'elle puisse essentiellement être entraînée sur les fonctionnalités apprises par les couches MLP précédentes)