Questions marquées «backpropagation»

À utiliser pour les questions sur la rétropropagation, qui est couramment utilisée dans la formation des réseaux de neurones en conjonction avec une méthode d'optimisation telle que la descente de gradient.

3
Backprop à travers les couches Max-Pooling?
C'est une petite question conceptuelle qui me hante depuis un moment: comment pouvons-nous propager en arrière à travers une couche de regroupement maximal dans un réseau de neurones? Je suis tombé sur des couches de max-pooling en parcourant ce tutoriel pour la bibliothèque nn de Torch 7. La bibliothèque résume …


1
Deep Neural Network - Backpropogation avec ReLU
J'ai du mal à dériver la propagation avec ReLU, et j'ai fait du travail, mais je ne sais pas si je suis sur la bonne voie. Fonction de coût: où est la valeur réelle et est une valeur prédite. Supposons également que > 0 toujours.y y x12(y−y^)212(y-y^)2\frac{1}{2}(y-\hat y)^2yyyy^y^\hat yxXx 1 …






3

2
Gradients synthétiques - quel est l'avantage pratique?
Je peux voir deux raisons d'utiliser des dégradés synthétiques dans RNN: Pour accélérer l'entraînement, en corrigeant immédiatement chaque couche avec le gradient prévu Pour pouvoir apprendre des séquences plus longues Je vois des problèmes avec les deux. Veuillez noter que j'aime vraiment les dégradés synthétiques et je voudrais les implémenter. …

1
Comment appliquer le gradient de softmax dans backprop
J'ai récemment fait mes devoirs où j'ai dû apprendre un modèle pour la classification à 10 chiffres du MNIST. Le HW avait un code d'échafaudage et j'étais censé travailler dans le contexte de ce code. Mes devoirs fonctionnent / réussissent les tests, mais maintenant j'essaie de tout faire à partir …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.