J'essaie de construire un système de reconnaissance des gestes pour classer les gestes ASL (American Sign Language) , donc mon entrée est censée être une séquence d'images provenant d'une caméra ou d'un fichier vidéo, puis elle détecte la séquence et la mappe à sa correspondance cours (dormir, aider, manger, courir, …
J'apprends à utiliser Keras et j'ai eu un succès raisonnable avec mon ensemble de données étiqueté en utilisant les exemples de Deep Learning pour Python de Chollet . L'ensemble de données est ~ 1000 séries temporelles de longueur 3125 avec 3 classes potentielles. Je voudrais aller au-delà des couches denses …
Je suis nouveau sur ML et TensorFlow (j'ai commencé il y a quelques heures) et j'essaie de l'utiliser pour prédire les prochains points de données d'une série chronologique. Je prends ma contribution et je fais cela avec: /----------- x ------------\ .-------------------------------. | 0 | 1 | 2 | 3 | …
Je me demande comment interpréter une architecture récurrente dans un contexte EEG. Plus précisément, je pense à cela comme un CNN récurrent (par opposition aux architectures comme LSTM), mais peut-être que cela s'applique également à d'autres types de réseaux récurrents Quand je lis sur les R-CNN, ils sont généralement expliqués …
Je voudrais utiliser les ANN pour mon problème, mais le problème est que mes numéros de nœuds d'entrées et de sorties ne sont pas fixes. J'ai fait une recherche Google avant de poser ma question et j'ai découvert que le RNN peut m'aider avec mon problème. Mais, tous les exemples …
J'ai vu un résultat impressionnant de modèles LSTM produisant Shakespeare comme des textes. Je me demandais si un package LSTM existe pour R. Je l'ai recherché sur Google, mais je n'ai trouvé que des packages pour Python et Julia. (Peut-être qu'il y a un problème de performances qui explique pourquoi …
Les CNN peuvent avoir des centaines de couches cachées et, comme ils sont souvent utilisés avec des données d'image, le fait d'avoir de nombreuses couches capture plus de complexité. Cependant, pour autant que je l'ai vu, les RNN ont généralement peu de couches, par exemple 2-4. Par exemple, pour la …
J'ai récemment appris comment un réseau neuronal vanille fonctionnerait, avec un nombre donné d'entrées, des nœuds cachés et le même nombre de sorties que les entrées. J'ai regardé divers articles liés au réseau neuronal récurrent, et je comprends le concept derrière, mais je n'arrive pas à comprendre certaines parties de …
Je me demande pourquoi la formation des RNN n'utilise généralement pas 100% du GPU. Par exemple, si j'exécute ce test RNN sur un Maxwell Titan X sur Ubuntu 14.04.4 LTS x64, l'utilisation du GPU est inférieure à 90%: Le benchmark a été lancé à l'aide de la commande: python rnn.py …
Je lis cet article "Apprentissage de séquence en séquence avec les réseaux de neurones" http://papers.nips.cc/paper/5346-sequence-to-sequence-learning-with-neural-networks.pdf Sous "2. Le modèle", il est écrit: Le LSTM calcule cette probabilité conditionnelle en obtenant d'abord la représentation dimensionnelle fixe v de la séquence d'entrée (x1, ..., xT) donnée par le dernier état caché du …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.