Réponses:
"Backprop" est identique à "backpropagation": c'est juste une façon plus courte de le dire. Il est parfois abrégé en "BP".
«Backprop» est l'abréviation de «backpropagation of error» afin d'éviter toute confusion lors de l'utilisation du terme de backpropagation .
Fondamentalement, la rétropropagation fait référence à la méthode de calcul du gradient de la fonction d'erreur au niveau de la casse par rapport aux poids pour un réseau à action directe Werbos . Et backprop fait référence à une méthode d'apprentissage qui utilise la backpropagation pour calculer le gradient.
On peut donc dire qu'un réseau backprop est un réseau feedforward formé par backpropagation .
Le terme «backprop standard» est un euphémisme pour la règle du delta généralisé qui est la méthode de formation supervisée la plus largement utilisée.
Source: Qu'est-ce que backprop? sur la FAQ du groupe de discussion Usenet comp.ai.neural-nets
Références:
Oui, comme Franck l'a dit à juste titre, "backprop" signifie backpropogation, qui est fréquemment utilisé dans le domaine des réseaux de neurones pour l'optimisation des erreurs.
Pour une explication détaillée, je rappelle ce tutoriel sur le concept de backpropogation par un très bon livre de Michael Nielsen.
Dans l'apprentissage automatique, la rétropropagation (backprop, BP) est un algorithme largement utilisé dans la formation de réseaux de neurones à action directe pour l'apprentissage supervisé. Il existe des généralisations de la rétropropagation pour d'autres réseaux de neurones artificiels (RNA) et pour les fonctions en général - une classe d'algorithmes appelés génériquement "rétropropagation".
C'est un nom de fantaisie pour la règle de chaîne multivariable.