Questions marquées «neural-network»

Les réseaux de neurones artificiels (ANN) sont composés de «neurones» - des constructions de programmation qui imitent les propriétés des neurones biologiques. Un ensemble de connexions pondérées entre les neurones permet à l'information de se propager à travers le réseau pour résoudre des problèmes d'intelligence artificielle sans que le concepteur de réseau ait eu un modèle de système réel.

10
Que sont les couches déconvolutionnelles?
J'ai récemment lu des réseaux entièrement convolutionnels pour la segmentation sémantique par Jonathan Long, Evan Shelhamer et Trevor Darrell. Je ne comprends pas ce que font les "couches déconvolutionnelles" / comment elles fonctionnent. La partie pertinente est 3.3. L'échantillonnage est une convolution à pas en arrière L'interpolation est un autre …



6
Quand utiliser GRU sur LSTM?
La principale différence entre une GRU et un LSTM réside dans le fait qu’une GRU a deux portes (portes de réinitialisation et de mise à jour ) alors qu’un LSTM a trois portes (à savoir les portes d’ entrée , de sortie et d’ oubli ). Pourquoi utilisons-nous GRU alors …




3
Backprop à travers les couches Max-Pooling?
C'est une petite question conceptuelle qui me hante depuis un moment: comment pouvons-nous propager en arrière à travers une couche de regroupement maximal dans un réseau de neurones? Je suis tombé sur des couches de max-pooling en parcourant ce tutoriel pour la bibliothèque nn de Torch 7. La bibliothèque résume …


3
RNN vs CNN à un niveau élevé
J'ai pensé aux réseaux de neurones récurrents (RNN) et leurs variétés et aux réseaux de neurones convolutionnels (CNN) et leurs variétés. Ces deux points seraient-ils justes de dire: Utilisez les CNN pour décomposer un composant (tel qu'une image) en sous-composants (tel qu'un objet dans une image, tel que le contour …

2
Quand utiliser (il ou Glorot) l'initialisation normale par rapport à l'init uniforme? Et quels sont ses effets avec la normalisation par lots?
Je savais que Residual Network (ResNet) rendait populaire l’initialisation normale. Dans ResNet, l'initialisation normale He est utilisée , tandis que la première couche utilise l'initialisation uniforme He. J'ai parcouru les papiers ResNet et "Delving Deep into Rectifiers" (papier d'initialisation He), mais je n'ai trouvé aucune mention sur init normal ou …




1
Quelle est la différence entre LeakyReLU et PReLU?
Je pensais que les deux, PReLU et Leaky ReLU sont f(x)=max(x,αx) with α∈(0,1)f(x)=max(x,αx) with α∈(0,1)f(x) = \max(x, \alpha x) \qquad \text{ with } \alpha \in (0, 1) Keras, cependant, a les deux fonctions dans la documentation . Leaky ReLU Source de LeakyReLU : return K.relu(inputs, alpha=self.alpha) D'où (voir code relu …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.