Je lis cet article "Apprentissage de séquence en séquence avec les réseaux de neurones" http://papers.nips.cc/paper/5346-sequence-to-sequence-learning-with-neural-networks.pdf
Sous "2. Le modèle", il est écrit:
Le LSTM calcule cette probabilité conditionnelle en obtenant d'abord la représentation dimensionnelle fixe v de la séquence d'entrée (x1, ..., xT) donnée par le dernier état caché du LSTM, puis en calculant la probabilité de y1,. . . , yT 'avec une formulation LSTM-LM standard dont l'état caché initial est fixé à la représentation v de x1,. . . , xT:
Je sais ce qu'est un LSTM, mais qu'est-ce qu'un LSTM-LM? J'ai essayé Google, mais je ne trouve pas de bonnes pistes.