Questions marquées «deep-learning»

Un domaine de machine learning dédié à l'apprentissage des représentations hiérarchiques des données, principalement réalisé avec des réseaux de neurones profonds.


1
Qu'est-ce qu'un bloc d'apprentissage résiduel dans le contexte des réseaux résiduels profonds dans l'apprentissage profond?
Je lisais le document Deep Residual Learning for Image Recognition et j'avais du mal à comprendre avec 100% de certitude ce qu'implique un bloc résiduel sur le plan informatique. En lisant leur article, ils ont la figure 2: qui illustre ce qu'est un bloc résiduel. Le calcul d'un bloc résiduel …

2
Utiliser le coefficient de corrélation de Pearson comme objectif d'optimisation dans l'apprentissage automatique
Dans l'apprentissage automatique (pour les problèmes de régression), je vois souvent l'erreur quadratique moyenne (MSE) ou l'erreur absolue moyenne (MAE) utilisée comme fonction d'erreur pour minimiser (plus le terme de régularisation). Je me demande s'il existe des situations où l'utilisation d'un coefficient de corrélation serait plus appropriée? si une telle …




3
Non-linéarité avant la couche Softmax finale dans un réseau neuronal convolutionnel
J'étudie et j'essaie de mettre en œuvre des réseaux de neurones convolutionnels, mais je suppose que cette question s'applique aux perceptrons multicouches en général. Les neurones de sortie de mon réseau représentent l'activation de chaque classe: le neurone le plus actif correspond à la classe prédite pour une entrée donnée. …




4
Dans un réseau neuronal convolutif (CNN), lors de la convolution de l'image, l'opération est-elle utilisée le produit scalaire ou la somme de la multiplication par élément?
L'exemple ci-dessous est tiré des conférences de deeplearning.ai montre que le résultat est la somme du produit élément par élément (ou "multiplication par élément". Les nombres rouges représentent les poids dans le filtre: ( 1 ∗ 1 ) + ( 1 ∗ 0 ) + ( 1 ∗ 1 ) …


1
Approximation de second ordre de la fonction de perte (livre d'apprentissage en profondeur, 7.33)
Dans le livre de Goodfellow (2016) sur l'apprentissage profond, il a parlé de l'équivalence de l'arrêt précoce de la régularisation L2 ( https://www.deeplearningbook.org/contents/regularization.html page 247). L'approximation quadratique de la fonction de coût jjj est donnée par: J^( θ ) = J( w∗) + 12( w - w∗)TH( w - w∗)J^(θ)=J(w∗)+12(w−w∗)TH(w−w∗)\hat{J}(\theta)=J(w^*)+\frac{1}{2}(w-w^*)^TH(w-w^*) …

4
Inférence sans vraisemblance - qu'est-ce que cela signifie?
Récemment, j'ai pris conscience des méthodes «sans vraisemblance» utilisées dans la littérature. Cependant, je ne sais pas exactement ce que signifie qu'une méthode d'inférence ou d'optimisation est sans vraisemblance . Dans l'apprentissage automatique, l'objectif est généralement de maximiser la probabilité que certains paramètres correspondent à une fonction, par exemple les …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.