Les encodeurs automatiques sont des réseaux de neurones qui apprennent une représentation compressée de l'entrée afin de la reconstruire plus tard, de sorte qu'ils peuvent être utilisés pour la réduction de dimensionnalité. Ils sont composés d'un encodeur et d'un décodeur (qui peuvent être des réseaux de neurones séparés). La réduction de la dimensionnalité peut être utile afin de traiter ou d'atténuer les problèmes liés à la malédiction de la dimensionnalité, où les données deviennent rares et il est plus difficile d'obtenir une «signification statistique». Ainsi, les auto-encodeurs (et des algorithmes comme PCA) peuvent être utilisés pour faire face à la malédiction de la dimensionnalité.
Pourquoi nous soucions-nous de la réduction de dimensionnalité en utilisant spécifiquement les auto-encodeurs? Pourquoi ne pouvons-nous pas simplement utiliser l'ACP, si le but est la réduction de la dimensionnalité?
Pourquoi devons-nous décompresser la représentation latente de l'entrée si nous voulons simplement effectuer une réduction de dimensionnalité, ou pourquoi avons-nous besoin de la partie décodeur dans un autoencodeur? Quels sont les cas d'utilisation? En général, pourquoi devons-nous compresser l'entrée pour la décompresser plus tard? Ne serait-il pas préférable d'utiliser simplement l'entrée d'origine (pour commencer)?