Un autoencodeur variationnel (VAE) fournit un moyen d'apprendre la distribution de probabilité reliant une entrée à sa représentation latente . En particulier, le codeur e mappe une entrée x à une distribution sur z . Un encodeur typique affichera des paramètres (\ mu, \ sigma) = e (x) , représentant la distribution gaussienne \ mathcal {N} (\ mu, \ sigma) ; cette distribution est utilisée comme approximation pour p (z | x) .
Quelqu'un a-t-il envisagé une VAE dont la sortie est un modèle de mélange gaussien plutôt que gaussien? Est-ce utile? Y a-t-il des tâches où cela est significativement plus efficace qu'une simple distribution gaussienne? Ou offre-t-il peu d'avantages?