Questions marquées «neural-network»

Structure de réseau inspirée de modèles simplifiés de neurones biologiques (cellules cérébrales). Les réseaux neuronaux sont formés pour "apprendre" par des techniques supervisées et non supervisées, et peuvent être utilisés pour résoudre des problèmes d'optimisation, des problèmes d'approximation, classer des modèles et des combinaisons de ceux-ci.

9
Commande de normalisation de lots et abandon?
La question initiale concernait spécifiquement les implémentations de TensorFlow. Cependant, les réponses concernent les implémentations en général. Cette réponse générale est également la bonne réponse pour TensorFlow. Lors de l'utilisation de la normalisation par lots et de l'abandon dans TensorFlow (en particulier en utilisant les contrib.layers), dois-je m'inquiéter de la …

4
Argument de Tensorflow Strides
J'essaie de comprendre l' argument des foulées dans tf.nn.avg_pool, tf.nn.max_pool, tf.nn.conv2d. La documentation dit à plusieurs reprises foulées: une liste d'entiers dont la longueur est> = 4. La foulée de la fenêtre glissante pour chaque dimension du tenseur d'entrée. Mes questions sont: Que représentent chacun des 4+ entiers? Pourquoi doivent-ils …



3
Quelle est la différence entre sparse_softmax_cross_entropy_with_logits et softmax_cross_entropy_with_logits?
Je suis récemment tombé sur tf.nn.sparse_softmax_cross_entropy_with_logits et je ne peux pas comprendre quelle est la différence par rapport à tf.nn.softmax_cross_entropy_with_logits . La seule différence est-elle que les vecteurs d'apprentissage ydoivent être encodés à chaud lors de l'utilisation sparse_softmax_cross_entropy_with_logits? En lisant l'API, je n'ai pas pu trouver d'autre différence par rapport …


5
Quel est le rôle de «Flatten» dans Keras?
J'essaie de comprendre le rôle de la Flattenfonction dans Keras. Voici mon code, qui est un simple réseau à deux couches. Il prend des données bidimensionnelles de forme (3, 2) et produit des données unidimensionnelles de forme (1, 4): model = Sequential() model.add(Dense(16, input_shape=(3, 2))) model.add(Activation('relu')) model.add(Flatten()) model.add(Dense(4)) model.compile(loss='mean_squared_error', optimizer='SGD') …



9
Pourquoi les poids des réseaux de neurones devraient-ils être initialisés à des nombres aléatoires? [fermé]
Fermé. Cette question ne respecte pas les directives de Stack Overflow . Il n'accepte pas les réponses actuellement. Vous souhaitez améliorer cette question? Mettez à jour la question pour qu'elle soit pertinente pour Stack Overflow. Fermé il y a 4 jours . Améliorez cette question J'essaye de construire un réseau …

4
architecture de perceptron multicouche (MLP): critères de choix du nombre de couches cachées et de la taille de la couche cachée?
Si nous avons 10 vecteurs propres, nous pouvons avoir 10 nœuds neuronaux dans la couche d'entrée.Si nous avons 5 classes de sortie, nous pouvons avoir 5 nœuds dans la couche de sortie.Mais quels sont les critères pour choisir le nombre de couches cachées dans un MLP et combien de neurones …




6
PyTorch - contigu ()
Je passais par cet exemple de modèle de langage LSTM sur github (lien) . Ce qu'il fait en général est assez clair pour moi. Mais j'ai encore du mal à comprendre ce que fait l'appel contiguous(), ce qui se produit plusieurs fois dans le code. Par exemple, à la ligne …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.