Un étranger au domaine ML / DL; a commencé le cours Udacity Deep Learning basé sur Tensorflow; faire la tâche 3 problème 4; essayer de régler le taux d'apprentissage avec la configuration suivante:
- Taille du lot 128
- Nombre d'étapes: suffisant pour remplir 2 époques
- Tailles des calques masqués: 1024, 305, 75
- Initialisation du poids: tronquée normale avec std. écart de sqrt (2 / n) où n est la taille de la couche précédente
- Probabilité de décrochage: 0,75
- Régularisation: non appliquée
- Algorithme de taux d'apprentissage: décroissance exponentielle
joué avec les paramètres de taux d'apprentissage; ils ne semblent pas avoir d'effet dans la plupart des cas; code ici ; résultats:
Accuracy learning_rate decay_steps decay_rate staircase
93.7 .1 3000 .96 True
94.0 .3 3000 .86 False
94.0 .3 3000 .96 False
94.0 .3 3000 .96 True
94.0 .5 3000 .96 True
- Comment régler systématiquement le taux d'apprentissage?
- Comment le taux d'apprentissage est-il lié au nombre d'étapes?