Lorsque nous utilisons l'algorithme d'apprentissage de CD persistant pour les machines Bolzmann restreintes, nous commençons notre chaîne d'échantillonnage Gibbs dans la première itération à un point de données, mais contrairement au CD normal, dans les itérations suivantes, nous ne recommençons pas sur notre chaîne. Au lieu de cela, nous commençons là où la chaîne d'échantillonnage de Gibbs dans l'itération précédente s'est terminée.
Dans l'algorithme CD normal, chaque itération évalue un mini-lot de points de données et calcule les chaînes d'échantillonnage de Gibbs à partir de ces points de données eux-mêmes.
Dans un CD persistant, devons-nous conserver les chaînes d'échantillonnage de Gibbs pour chaque point de données? Ou devrions-nous également conserver un mini-lot de chaînes d'échantillonnage Gibbs, qui a commencé à des points de données qui ne sont pas actuellement évalués dans l'itération actuelle?
Il me semble que conserver les chaînes d'échantillonnage de Gibbs pour chaque point de données sera trop lourd, mais d'un autre côté, il semble insuffisant de comparer les signaux de l'échantillon actuel avec les signaux après une longue chaîne de Gibbs qui n'a pas commencé au courant échantillon .