Questions marquées «conv-neural-network»

Les réseaux de neurones convolutifs sont un type de réseau de neurones dans lequel seuls des sous-ensembles de connexions possibles entre les couches existent pour créer des régions qui se chevauchent. Ils sont couramment utilisés pour les tâches visuelles.




6
Couches convolutives: rembourrer ou ne pas rembourrer?
L'architecture d'AlexNet utilise des remplissages zéro comme le montre l'image: Cependant, il n'y a aucune explication dans le papier pourquoi ce remplissage est introduit. Le cours Standford CS 231n enseigne que nous utilisons le rembourrage pour préserver la taille spatiale: Je me demande si c'est la seule raison pour laquelle …

5
Quelle est la différence entre «transfert d'apprentissage» et «adaptation de domaine»?
Y a-t-il une différence entre «transfert d'apprentissage» et «adaptation de domaine»? Je ne connais pas le contexte, mais je crois comprendre que nous avons un ensemble de données 1 et que nous nous y entraînons, après quoi nous avons un autre ensemble de données 2 pour lequel nous voulons adapter …





1
nombre de cartes d'entités dans les réseaux de neurones convolutifs
Lors de l'apprentissage du réseau neuronal convolutionnel, j'ai des questions concernant la figure suivante. 1) C1 dans la couche 1 a 6 cartes de caractéristiques, cela signifie-t-il qu'il y a six noyaux convolutionnels? Chaque noyau convolutionnel est utilisé pour générer une carte d'entités basée sur l'entrée. 2) S1 dans la …



4
De combien de données avez-vous besoin pour un réseau neuronal convolutionnel?
Si j'ai un réseau neuronal convolutif (CNN), qui a environ 1 000 000 de paramètres, combien de données d'entraînement sont nécessaires (supposons que je fais une descente de gradient stochastique)? Y a-t-il une règle d'or? Notes supplémentaires: Lorsque j'ai effectué une descente de gradient stochastique (par exemple, 64 patchs pour …


1
Pourquoi est-il important d'inclure un terme de correction de biais pour l'optimiseur Adam pour l'apprentissage en profondeur?
Je lisais sur l' optimiseur Adam pour le Deep Learning et suis tombé sur la phrase suivante dans le nouveau livre Deep Learning de Begnio, Goodfellow et Courtville: Adam inclut des corrections de biais dans les estimations des moments du premier ordre (le terme de momentum) et des moments du …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.