Questions marquées «deep-learning»

Le Deep Learning est un domaine d'apprentissage automatique dont le but est d'apprendre des fonctions complexes à l'aide d'architectures de réseau neuronal spéciales qui sont «profondes» (composées de plusieurs couches). Cette balise doit être utilisée pour les questions sur la mise en œuvre d'architectures d'apprentissage en profondeur. Les questions générales d'apprentissage automatique doivent être étiquetées «apprentissage automatique». Inclure une balise pour la bibliothèque logicielle appropriée (par exemple, "keras", "tensorflow", "pytorch", "fast.ai" et etc.) est utile.


4
architecture de perceptron multicouche (MLP): critères de choix du nombre de couches cachées et de la taille de la couche cachée?
Si nous avons 10 vecteurs propres, nous pouvons avoir 10 nœuds neuronaux dans la couche d'entrée.Si nous avons 5 classes de sortie, nous pouvons avoir 5 nœuds dans la couche de sortie.Mais quels sont les critères pour choisir le nombre de couches cachées dans un MLP et combien de neurones …



6
Utilisation d'une incorporation de mots pré-entraînée (word2vec ou Glove) dans TensorFlow
J'ai récemment examiné une implémentation intéressante pour la classification de texte convolutif . Cependant, tout le code TensorFlow que j'ai examiné utilise des vecteurs d'incorporation aléatoires (non pré-entraînés) comme celui-ci: with tf.device('/cpu:0'), tf.name_scope("embedding"): W = tf.Variable( tf.random_uniform([vocab_size, embedding_size], -1.0, 1.0), name="W") self.embedded_chars = tf.nn.embedding_lookup(W, self.input_x) self.embedded_chars_expanded = tf.expand_dims(self.embedded_chars, -1) Est-ce …


5
pourquoi «emballons-nous» les séquences en pytorch?
J'essayais de reproduire Comment utiliser l'empaquetage pour les entrées de séquence de longueur variable pour rnn, mais je suppose que je dois d'abord comprendre pourquoi nous devons "emballer" la séquence. Je comprends pourquoi nous devons les «tamponner» mais pourquoi est-il nécessaire de les «emballer» (à travers pack_padded_sequence)? Toute explication de …

6
PyTorch - contigu ()
Je passais par cet exemple de modèle de langage LSTM sur github (lien) . Ce qu'il fait en général est assez clair pour moi. Mais j'ai encore du mal à comprendre ce que fait l'appel contiguous(), ce qui se produit plusieurs fois dans le code. Par exemple, à la ligne …

5
Quelle est l'utilité de verbose dans Keras lors de la validation du modèle?
J'utilise le modèle LSTM pour la première fois. Voici mon modèle: opt = Adam(0.002) inp = Input(...) print(inp) x = Embedding(....)(inp) x = LSTM(...)(x) x = BatchNormalization()(x) pred = Dense(5,activation='softmax')(x) model = Model(inp,pred) model.compile(....) idx = np.random.permutation(X_train.shape[0]) model.fit(X_train[idx], y_train[idx], nb_epoch=1, batch_size=128, verbose=1) Quelle est l'utilité de verbeux lors de l'entraînement …

4
Que signifie global_step dans Tensorflow?
Dans ce code de didacticiel du site Web TensorFlow, quelqu'un pourrait-il aider à expliquer ce que cela global_stepsignifie? J'ai trouvé sur le site Web de Tensorflow écrit que l'étape globale est utilisée pour compter les étapes de formation , mais je ne comprends pas tout à fait ce que cela …


5
Keras, comment prédire après avoir formé un modèle?
Je joue avec le jeu de données de l'exemple de reuters et il fonctionne bien (mon modèle est entraîné). J'ai lu comment enregistrer un modèle afin de pouvoir le charger plus tard pour le réutiliser. Mais comment utiliser ce modèle enregistré pour prédire un nouveau texte? Dois-je utiliser models.predict()? Dois-je …

2
Optimiseur TensorFlow Keras personnalisé
Supposons que je veuille écrire une classe d'optimiseur personnalisée conforme à l' tf.kerasAPI (en utilisant la version TensorFlow> = 2.0). Je suis confus quant à la façon documentée de le faire par rapport à ce qui est fait dans les implémentations. La documentation pour les tf.keras.optimizers.Optimizer états , ### Write …


3
Utilisation de YOLO ou d'autres techniques de reconnaissance d'image pour identifier tout le texte alphanumérique présent dans les images
J'ai plusieurs diagrammes d'images, qui contiennent tous des étiquettes sous forme de caractères alphanumériques au lieu de simplement l'étiquette de texte elle-même. Je veux que mon modèle YOLO identifie tous les chiffres et caractères alphanumériques qu'il contient. Comment puis-je entraîner mon modèle YOLO à faire de même. L'ensemble de données …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.