Questions marquées «neural-networks»

Les réseaux de neurones artificiels (RNA) sont une large classe de modèles de calcul librement basés sur des réseaux de neurones biologiques. Ils englobent les NN à action directe (y compris les NN "profonds"), les NN convolutifs, les NN récurrents, etc.

1
La perte d'entraînement diminue et augmente de nouveau. Qu'est-ce qui se passe?
Ma perte d'entraînement diminue puis augmente à nouveau. C'est très bizarre. La perte de validation croisée suit la perte d'entraînement. Que se passe-t-il? J'ai deux LSTMS empilés comme suit (sur Keras): model = Sequential() model.add(LSTM(512, return_sequences=True, input_shape=(len(X[0]), len(nd.char_indices)))) model.add(Dropout(0.2)) model.add(LSTM(512, return_sequences=False)) model.add(Dropout(0.2)) model.add(Dense(len(nd.categories))) model.add(Activation('sigmoid')) model.compile(loss='binary_crossentropy', optimizer='adadelta') Je l'entraîne pour 100 …


5
Quelle est la différence entre les réseaux de neurones convolutifs et l'apprentissage profond?
Je souhaite utiliser le deep learning dans mon projet. J'ai parcouru quelques articles et une question m'est venue: y a-t-il une différence entre le réseau neuronal à convolution et l'apprentissage en profondeur? Ces choses sont-elles les mêmes ou ont-elles des différences majeures, et quelle est la meilleure?

8
Pourquoi est-il si important d'avoir des théories de principe et mathématiques pour l'apprentissage automatique?
Je me demandais, pourquoi est-il si important d'avoir un apprentissage automatique fondé sur des principes / théorique? D'un point de vue personnel en tant qu'humain, je peux comprendre pourquoi l'apprentissage automatique fondé sur des principes serait important: les humains aiment comprendre ce qu'ils font, nous trouvons la beauté et la …


6
Pour les problèmes convexes, le gradient en descente de gradient stochastique (SGD) pointe-t-il toujours vers la valeur extrême globale?
Étant donné une fonction de coût convexe, en utilisant SGD pour l'optimisation, nous aurons un gradient (vecteur) à un certain point au cours du processus d'optimisation. Ma question est, étant donné le point sur le convexe, le gradient ne pointe-t-il que vers la direction dans laquelle la fonction augmente / …



1
Pourquoi les unités linéaires rectifiées sont-elles considérées comme non linéaires?
Pourquoi les fonctions d'activation des unités linéaires rectifiées (ReLU) sont-elles considérées comme non linéaires? f(x)=max(0,x)f(x)=max(0,x) f(x) = \max(0,x) Ils sont linéaires lorsque l'entrée est positive et de ma compréhension pour débloquer la puissance représentative des réseaux profonds, les activations non linéaires sont un must, sinon l'ensemble du réseau pourrait être …


3
Quelle est la raison pour laquelle Adam Optimizer est considéré comme robuste à la valeur de ses paramètres hyper?
Je lisais sur l' optimiseur Adam pour le Deep Learning et suis tombé sur la phrase suivante dans le nouveau livre Deep Learning de Bengio, Goodfellow et Courville: Adam est généralement considéré comme assez robuste pour le choix des paramètres hyper, bien que le taux d'apprentissage doive parfois être modifié …

4
Que pouvons-nous apprendre sur le cerveau humain des réseaux de neurones artificiels?
Je sais que ma question / titre n'est pas très précis, je vais donc essayer de le clarifier: Les réseaux de neurones artificiels ont des conceptions relativement strictes. Bien sûr, généralement, ils sont influencés par la biologie et tentent de construire un modèle mathématique de réseaux neuronaux réels, mais notre …

2
Les encodeurs automatiques ne peuvent pas apprendre de fonctionnalités significatives
J'ai 50 000 images comme celles-ci: Ils représentent des graphiques de données. Je voulais extraire des fonctionnalités de ces images, j'ai donc utilisé le code de l'encodeur automatique fourni par Theano (deeplearning.net). Le problème est que ces encodeurs automatiques ne semblent pas apprendre de fonctionnalités. J'ai essayé RBM et c'est …

2
Comment le CNN '12 de Krizhevsky obtient-il 253 440 neurones dans la première couche?
Dans Alex Krizhevsky, et al. Classification Imagenet avec des réseaux de neurones convolutionnels profonds, ils énumèrent le nombre de neurones dans chaque couche (voir schéma ci-dessous). L'entrée du réseau est de 150528 dimensions et le nombre de neurones dans les couches restantes du réseau est donné par 253,440–186,624–64,896–64,896–43,264– 4096–4096–1000. Une …

2
Quelle est la différence entre abandon et drop connect?
Quelle est la différence entre abandon et drop connect? AFAIK, le décrochage supprime aléatoirement les nœuds cachés pendant la formation, mais les maintient dans les tests, et le drop connect supprime les connexions. Mais la suppression des connexions n'est-elle pas équivalente à la suppression des nœuds cachés? Les nœuds (ou …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.