Existe-t-il des règles générales (ou des règles réelles) concernant la quantité minimale, maximale et "raisonnable" de cellules LSTM que je devrais utiliser? Plus précisément, je me rapporte à BasicLSTMCell de TensorFlow et à la num_units
propriété.
Veuillez supposer que j'ai un problème de classification défini par:
t - number of time steps
n - length of input vector in each time step
m - length of output vector (number of classes)
i - number of training examples
Est-il vrai, par exemple, que le nombre d'exemples de formation devrait être supérieur à:
4*((n+1)*m + m*m)*c
où c
est le nombre de cellules? Je me suis basé sur ceci: Comment calculer le nombre de paramètres d'un réseau LSTM? Si je comprends bien, cela devrait donner le nombre total de paramètres, qui devrait être inférieur au nombre d'exemples de formation.