Je recherche un article détaillant les fondements mêmes de l'apprentissage profond. Idéalement comme le cours Andrew Ng pour l'apprentissage en profondeur. Savez-vous où je peux trouver ça?
Je recherche un article détaillant les fondements mêmes de l'apprentissage profond. Idéalement comme le cours Andrew Ng pour l'apprentissage en profondeur. Savez-vous où je peux trouver ça?
Réponses:
Ce lien contient une quantité incroyable de littérature d'apprentissage en profondeur. Pour résumer ici (dans l'ordre idéal pour un débutant) - NOTE: Toutes ces ressources utilisent principalement python.
1) Tout d'abord, une connaissance de base de l'apprentissage automatique est requise. J'ai trouvé que Caltech's Learning from data était idéal pour tous les cours de machine learning disponibles sur le net.
Le cours Coursera d'Andrew Ng est également très bon.
2) Pour les réseaux de neurones, personne ne l'explique mieux que le Dr Patrick Winston . Les affectations doivent être essayées pour une meilleure compréhension. Ils sont en python.
3) Pour une meilleure compréhension des réseaux de neurones, le cours de Michael Nielsen doit être suivi (comme suggéré par Alexey). C'est assez basique mais ça marche.
4) Pour les réseaux de neurones profonds et leur mise en œuvre plus rapide sur les GPU, il existe plusieurs frameworks disponibles, tels que Theano , Caffe , Pybrain , Torch , etc. Parmi ceux-ci, Theano offre une meilleure fonctionnalité de bas niveau qui permet à son utilisateur de créer des NN personnalisés. C'est une bibliothèque python, donc pouvoir utiliser numpy, scikit-learn, matplotlib, scipy avec elle est un gros plus. Le didacticiel d'apprentissage approfondi écrit par Lisa Lab doit être testé pour une meilleure compréhension de theano.
5) Pour les réseaux de neurones convolutifs, suivez le tutoriel d'andrej karpathy .
6) Pour un apprentissage non supervisé, suivez ici et ici .
7) Pour une intersection d'apprentissage profond et de PNL, suivez la classe de Richard Socher .
8) Pour les LSTM, lire Hochreiter, S., et Schmidhuber, J. (1997). Mémoire longue durée. Calcul neuronal, 9 (8), 1735-1780 et Graves, Alex. Marquage de séquence supervisé avec des réseaux de neurones récurrents. Vol. 385. Springer, 2012 .
Voici le code Theano de LSTM .
Le sujet est nouveau, donc la majeure partie de la sagesse est dispersée dans les journaux, mais voici deux livres récents:
Et du matériel pratique: http://deeplearning.net/tutorial/
Réseaux de neurones et apprentissage profond par Michael Nielsen. Le livre est toujours en cours, mais il semble assez intéressant et prometteur. Et c'est gratuit! Voici le lien: http://neuralnetworksanddeeplearning.com/
Il n'y a que 5 chapitres à ce jour, et la plupart d'entre eux parlent des réseaux de neurones habituels, mais cela vaut quand même le coup d'œil.
Mise à jour: le livre est terminé!
Références principales:
Cours sur l'apprentissage profond:
Orienté PNL:
Orienté vers la vision:
Tutoriels spécifiques à la boîte à outils:
Il y a aussi la récente thèse de doctorat de Richard Socher sur l'intersection de la PNL et de l'apprentissage profond: apprentissage profond récursif pour le traitement du langage naturel et la vision par ordinateur
Pour comprendre la dérivation de l'algorithme de propagation arrière, je suggère une vidéo youtube de Ryan Harris qui est moins intimidante. Vous pouvez également trouver une deuxième vidéo.