Le problème que je traite est de prédire les valeurs de séries chronologiques. Je regarde une série chronologique à la fois et, sur la base par exemple de 15% des données d'entrée, je voudrais prédire ses valeurs futures. Jusqu'à présent, j'ai rencontré deux modèles: LSTM (mémoire à long terme et …
J'essaie de commencer à apprendre sur les RNN et j'utilise Keras. Je comprends le principe de base des couches RNN et LSTM à la vanille, mais j’ai du mal à comprendre un certain point technique pour la formation. Dans la documentation de keras , il est indiqué que l’entrée dans …
Combien de paramètres a un seul LSTM empilé? Le nombre de paramètres impose une limite inférieure au nombre d'exemples de formation requis et influence également le temps de formation. Par conséquent, connaître le nombre de paramètres est utile pour l'apprentissage de modèles utilisant des LSTM.
Donc, récemment, il y a un papier de normalisation des calques . Il existe également une implémentation de celui-ci sur Keras. Mais je me souviens qu'il y a des articles intitulés Recurrent Batch Normalization (Cooijmans, 2016) et Batch Normalized Recurrent Neural Networks (Laurent, 2015). Quelle est la différence entre ces …
Du code Tensorflow : Tensorflow. RnnCell. num_units: int, The number of units in the LSTM cell. Je ne peux pas comprendre ce que cela signifie. Quelles sont les unités de la cellule LSTM. Entrée, sortie et oublier les portes? Cela signifie-t-il «nombre d'unités dans la couche de projection récurrente pour …
Je crée un corr()df à partir d'un df d'origine. Le corr()df est sorti 70 X 70 et il est impossible de visualiser le heatmap ... sns.heatmap(df). Si j'essaie d'afficher le corr = df.corr(), le tableau ne correspond pas à l'écran et je peux voir toutes les corrélations. Est-ce un moyen …
En lisant sur la génération de texte avec les réseaux de neurones récurrents, j'ai remarqué que certains exemples ont été mis en œuvre pour générer du texte mot par mot et d'autres caractère par caractère sans vraiment expliquer pourquoi. Alors, quelle est la différence entre les modèles RNN qui prédisent …
J'essaie de créer un réseau neuronal en utilisant des séries temporelles en entrée, afin de le former en fonction du type de chaque série. J'ai lu qu'en utilisant des RNN, vous pouvez diviser l'entrée en lots et utiliser chaque point de la série temporelle en neurones individuels et éventuellement former …
J'essaie de comprendre les dimensions de chaque variable dans un RNN dans la couche oublier, cependant, je ne sais pas si je suis sur la bonne voie. L'image et l'équation suivantes proviennent de proviennent du blog Colah "Comprendre les réseaux LSTM" : où: est une entrée de taille m ∗ …
J'ai du mal à interpréter la différence de codage Keras pour un étiquetage de séquence un à plusieurs (par exemple, classification d'images uniques) et plusieurs à plusieurs (par exemple, classification de séquences d'images). Je vois souvent deux types de codes différents: Le type 1 est celui où aucun TimeDistributed appliqué …
J'ai essayé de comprendre comment représenter et façonner les données pour faire une prévision de séries chronologiques multidimentionnelles et multivariées en utilisant Keras (ou TensorFlow) mais je ne suis toujours pas très clair après avoir lu de nombreux articles de blog / tutoriels / documentation sur la façon de présenter …
Existe-t-il des règles générales (ou des règles réelles) concernant la quantité minimale, maximale et "raisonnable" de cellules LSTM que je devrais utiliser? Plus précisément, je me rapporte à BasicLSTMCell de TensorFlow et à la num_unitspropriété. Veuillez supposer que j'ai un problème de classification défini par: t - number of time …
Je prototype une application et j'ai besoin d'un modèle de langage pour calculer la perplexité sur certaines phrases générées. Existe-t-il un modèle de langage formé en python que je peux facilement utiliser? Quelque chose de simple comme model = LanguageModel('en') p1 = model.perplexity('This is a well constructed sentence') p2 = …
En utilisant un multicouche LSTMavec dropout, est-il conseillé de mettre le dropout sur tous les calques cachés ainsi que sur les calques Denses en sortie? Dans l'article de Hinton (qui proposait Dropout), il ne plaçait Dropout que sur les couches Denses, mais c'était parce que les couches internes cachées étaient …
Je suis très nouveau dans le Deep Learning et je suis particulièrement intéressé à savoir ce que sont LSTM et BiLSTM et quand les utiliser (principaux domaines d'application). Pourquoi LSTM et BILSTM sont-ils plus populaires que RNN? Pouvons-nous utiliser ces architectures d'apprentissage en profondeur dans des problèmes non supervisés?
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.