Questions marquées «conv-neural-network»

Les réseaux de neurones convolutifs sont un type de réseau de neurones dans lequel seuls des sous-ensembles de connexions possibles entre les couches existent pour créer des régions qui se chevauchent. Ils sont couramment utilisés pour les tâches visuelles.


2
Convolution 1D dans les réseaux de neurones
Je comprends comment fonctionne la convolution mais je ne comprends pas comment les convolutions 1D sont appliquées aux données 2D. Dans cet exemple, vous pouvez voir une convolution 2D dans une donnée 2D. Mais comment serait-il si c'était une convolution 1D? Juste un noyau 1D glissant de la même manière? …

2
Champ récepteur des neurones dans LeNet
J'essaie de mieux comprendre les champs réceptifs de CNN. Pour ce faire, je voudrais calculer le champ récepteur de chaque neurone dans LeNet. Pour un MLP normal, c'est plutôt facile (voir http://deeplearning.net/tutorial/lenet.html#sparse-connectivity ), mais il est plus difficile de calculer le champ récepteur d'un neurone dans une couche suivant une …


1
Qu'est-ce que la prédiction dense dans le Deep Learning?
J'utilise le modèle pré-formé de TensorFlow de réseau neuronal convolutionnel. https://github.com/tensorflow/models/blob/master/slim/nets/resnet_v2.py#L130 J'ai trouvé la phrase suivante: Cependant, pour les tâches de prédiction denses, nous conseillons d'utiliser des entrées dont les dimensions spatiales sont des multiples de 32 plus 1, par exemple [321, 321]. Quelqu'un sait-il ce qu'est la prédiction dense …


2
Existe-t-il des moyens de gérer le gradient de fuite pour les non-linéarités saturantes qui n'impliquent pas la normalisation par lots ou les unités ReLu?
Je voulais former un réseau avec des non-linéarités qui souffrent de la disparition (ou du problème de gradient explosif mais principalement de la disparition). Je sais que la méthode standard (actuelle) consiste à utiliser la normalisation par lots 1 [BN] 1 ou simplement à abandonner la non-linéarité et à utiliser …


3
Vérification du gradient numérique: à quelle distance est assez proche?
J'ai fait un réseau neuronal convolutionnel et je voulais vérifier que mes gradients sont calculés correctement en utilisant la vérification numérique du gradient. La question est, à quelle distance est assez proche? Ma fonction de vérification crache simplement la dérivée calculée, la dérivée approximée numériquement, la différence entre les deux, …
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.