Questions marquées «autoencoders»

Réseaux de neurones feedforward formés pour reconstruire leur propre entrée. Habituellement, l'une des couches cachées est un «goulot d'étranglement», conduisant à l'interprétation encodeur-> décodeur.





1
Impossible de faire fonctionner correctement ce réseau d'auto-encodeur (avec les couches convolutionnelles et maxpool)
Les réseaux de codage automatique semblent être beaucoup plus délicats que les réseaux MLP classificateurs normaux. Après plusieurs tentatives d'utilisation de la lasagne, tout ce que j'obtiens dans la sortie reconstruite ressemble à son mieux à une moyenne floue de toutes les images de la base de données MNIST sans …



1
Une formation gourmande en couche profonde des réseaux profonds est-elle nécessaire pour un entraînement réussi ou la descente de gradient stochastique est-elle suffisante?
Est-il possible d'obtenir des résultats de pointe en utilisant uniquement la rétro-propagation (sans pré-formation )? Ou est-ce pour que toutes les approches battant des records utilisent une certaine forme de pré-formation? La rétropropagation est-elle suffisante à elle seule?

2
Paramètres d'encodage automatique [Hyper] clairsemés
Je viens de commencer à utiliser le package autoencoder dans R. Les entrées de la autoencode()fonction incluent lambda, beta, rho et epsilon. Quelles sont les limites de ces valeurs? Varient-ils pour chaque fonction d'activation? Ces paramètres sont-ils appelés "hyperparamètres"? En supposant un auto-encodeur clairsemé, est rho = .01 bon pour …
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.