Questions marquées «deep-learning»

un nouveau domaine de recherche en Machine Learning concernant les technologies utilisées pour l'apprentissage des représentations hiérarchiques des données, principalement effectuées avec des réseaux de neurones profonds (c'est-à-dire des réseaux avec deux ou plusieurs couches cachées), mais aussi avec une sorte de modèles graphiques probabilistes.




1
Keras LSTM avec série temporelle 1D
J'apprends à utiliser Keras et j'ai eu un succès raisonnable avec mon ensemble de données étiqueté en utilisant les exemples de Deep Learning pour Python de Chollet . L'ensemble de données est ~ 1000 séries temporelles de longueur 3125 avec 3 classes potentielles. Je voudrais aller au-delà des couches denses …



1
Transformer les encodeurs automatiques
Je viens de lire l'article de Geoff Hinton sur la transformation des encodeurs automatiques Hinton, Krizhevsky et Wang: Transformer les auto-encodeurs . Dans Artificial Neural Networks and Machine Learning, 2011. et je voudrais bien jouer avec quelque chose comme ça. Mais après l'avoir lu, je n'ai pas pu obtenir suffisamment …


2
Trier les nombres en utilisant seulement 2 couches cachées
Je suis en train de lire l'article clé Séquence à séquence d'apprentissage avec les réseaux de neurones par Ilya Sutskever et Quoc Le. Sur la première page, il mentionne brièvement que: A surprising example of the power of DNNs is their ability to sort N N-bit numbers using only 2 …




1
COMMENT FAIRE: Initialisation du poids du réseau neuronal profond
Étant donné la tâche d'apprentissage difficile (par exemple, grande dimensionnalité, complexité inhérente des données), les réseaux neuronaux profonds deviennent difficiles à former. Pour atténuer de nombreux problèmes, on pourrait: Normaliser les données de qualité && choisir un algorithme d'entraînement différent (par exemple RMSprop au lieu de Gradient Descent) choisissez une …

1
Comment puis-je calculer le terme delta d'une couche convolutionnelle, étant donné les termes delta et les poids de la couche convolutionnelle précédente?
J'essaie de former un réseau neuronal artificiel avec deux couches convolutionnelles (c1, c2) et deux couches cachées (c1, c2). J'utilise l'approche de rétropropagation standard. Dans la passe arrière, je calcule le terme d'erreur d'une couche (delta) en fonction de l'erreur de la couche précédente, des poids de la couche précédente …

2
La normalisation par lots a-t-elle un sens pour une fonction d'activation ReLU?
La normalisation par lots est décrite dans cet article comme une normalisation de l'entrée d'une fonction d'activation avec des variables d'échelle et de décalageγγ\gamma et ββ\beta. Cet article décrit principalement l'utilisation de la fonction d'activation sigmoïde, ce qui est logique. Cependant, il me semble que l'introduction d'une entrée de la …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.