J'utilise Python Keras package
pour réseau de neurones. Ceci est le lien . Est batch_size
égal au nombre d'échantillons de test? De Wikipedia nous avons cette information:
Cependant, dans d'autres cas, l'évaluation du gradient de somme peut nécessiter des évaluations coûteuses des gradients de toutes les fonctions de sommation. Lorsque l'ensemble d'apprentissage est énorme et qu'il n'existe pas de formules simples, évaluer les sommes des gradients devient très coûteux, car évaluer le gradient nécessite d'évaluer tous les gradients des fonctions de sommation. Pour réduire les coûts de calcul à chaque itération, la descente à gradient stochastique échantillonne un sous-ensemble de fonctions de sommande à chaque étape. Ceci est très efficace dans le cas de problèmes d’apprentissage automatique à grande échelle.
Les informations ci-dessus décrivent les données de test? Est-ce la même chose que batch_size
dans keras (nombre d'échantillons par mise à jour de gradient)?