Il est possible de trouver les différences en consultant les modèles. Regardons d'abord le codage clairsemé.
Codage clairsemé
Le codage clairsemé minimise l’objectif
où est une matrice de bases, H est une matrice de codes et est une matrice des données que nous souhaitons représenter. met en œuvre un commerce de faible densité et de reconstruction. Notez que si on nous donne , l'estimation de W est facile via les moindres carrés. WXλ
Lsc=||WH−X||22reconstruction term+λ||H||1sparsity term
WXλHW
Au début, nous n'avons pas cependant. Pourtant, de nombreux algorithmes existent qui peuvent résoudre l'objectif ci - dessus par rapport à . En fait, voici comment nous faisons l'inférence: nous devons résoudre un problème d'optimisation si nous voulons connaître le appartenant à un invisible .HHhX
Encodeurs automatiques
Les encodeurs automatiques sont une famille de réseaux de neurones non supervisés. Il y en a beaucoup, par exemple les encodeurs automatiques profonds ou ceux auxquels on associe différentes astuces de régularisation - par exemple, le débruitage, la contractualité, la rareté. Il en existe même des probabilistes, tels que les réseaux stochastiques génératifs ou le codeur automatique variationnel. Leur forme la plus abstraite est
mais nous allons suivre une forme beaucoup plus simple pour l'instant:
où est une fonction non linéaire telle que le sigmoïde logistique .
D ( d( e ( x ; θr) ; θré) , x )
Lae= | | Wσ( WTX) - X| |2
σσ( x ) = 11 + exp( - x )
Similitudes
Notez que ressemble presque à une fois que nous avons défini . La différence entre les deux réside dans le fait que i) les encodeurs automatiques n'encouragent pas la fragmentation sous sa forme générale ii) un autoencodeur utilise un modèle pour trouver les codes, tandis que le codage éparse le fait par optimisation.Ls cLun eH= σ( WTX)
Pour les données d’image naturelles, les encodeurs automatiques régularisés et le codage clairsemé tendent à produire un très similaire . Cependant, les auto-encodeurs sont beaucoup plus efficaces et peuvent facilement être généralisés à des modèles beaucoup plus complexes. Par exemple, le décodeur peut être hautement non linéaire, par exemple un réseau de neurones profonds. De plus, on n'est pas lié à la perte au carré (dont dépend l'estimation de pour .)W L s cWWLs c
De plus, les différentes méthodes de régularisation donnent des représentations avec des caractéristiques différentes. Il a également été démontré que les auto-encodeurs de Denoising sont équivalents à une certaine forme de RBM, etc.
Mais pourquoi?
Si vous souhaitez résoudre un problème de prédiction, vous n'avez pas besoin d'encodeurs automatiques, à moins que vous ne disposiez que de peu de données étiquetées et de nombreuses données non étiquetées. Dans ce cas, vous ferez généralement mieux de former un encodeur automatique profond et d’ajouter un SVM linéaire au lieu d’entraîner un réseau neuronal profond.
Cependant, ce sont des modèles très puissants pour capturer les caractéristiques des distributions. C’est vague, mais des recherches sont en cours pour en tirer des statistiques solides. Les modèles gaussiens latents profonds, à savoir les codeurs automatiques variationnels ou les réseaux stochastiques génératifs, constituent des moyens assez intéressants d'obtenir des codeurs automatiques qui permettent d'estimer de manière prouvée la distribution de données sous-jacente.