Je ne suis en aucun cas un expert en encodeurs automatiques ou en réseaux de neurones, alors pardonnez-moi si c'est une question stupide.
À des fins de réduction de dimension ou de visualisation de clusters dans des données de haute dimension, nous pouvons utiliser un autoencodeur pour créer une représentation bidimensionnelle (avec perte) en inspectant la sortie de la couche réseau à 2 nœuds. Par exemple, avec l'architecture suivante, nous inspecterions la sortie de la troisième couche
où est les données d'entrée et N l est le nombre de nœuds dans la l ième couche.
Maintenant, ma question est, pourquoi voulons-nous une architecture symétrique? Un miroir de la phase de «compression» profonde ne signifie-t-il pas que nous pourrions avoir une phase de «décompression» tout aussi complexe résultant en une sortie à 2 nœuds qui n'est pas forcément très intuitive? En d'autres termes, une phase de décodage plus simple n'aurait-elle pas pour conséquence que la sortie de la couche à 2 nœuds serait aussi plus simple?
Je pense ici que moins la phase de décompression est complexe, plus la représentation 2D doit être simple (plus linéaire?). Une phase de décompression plus complexe permettrait une représentation 2D plus complexe.