J'ai lu sur les SVM et j'ai appris qu'ils résolvaient un problème d'optimisation et l'idée de marge maximale était très raisonnable.
Maintenant, en utilisant des noyaux, ils peuvent même trouver des limites de séparation non linéaires, ce qui était génial.
Jusqu'à présent, je n'ai vraiment aucune idée de la façon dont les SVM (une machine spéciale du noyau) et les machines du noyau sont liés aux réseaux de neurones?
Considérez les commentaires de Yann Lecun => ici :
kernel methods were a form of glorified template matching
et ici aussi :
Par exemple, certaines personnes ont été éblouies par les méthodes du noyau à cause des mathématiques mignonnes qui vont avec. Mais, comme je l'ai dit dans le passé, à la fin, les machines du noyau sont des réseaux superficiels qui effectuent une «correspondance de modèle glorifiée». Il n'y a rien de mal à cela (SVM est une excellente méthode), mais il a de terribles limites dont nous devrions tous être conscients.
Mes questions sont donc:
- Quel est le lien entre SVM et le réseau neuronal? Comment est-ce un réseau peu profond?
- SVM résout un problème d'optimisation avec une fonction objectif bien définie, comment fait-il la correspondance des modèles? Quel est le modèle ici auquel une entrée est mise en correspondance?
Je suppose que ces commentaires nécessitent une compréhension approfondie des espaces de grande dimension, des réseaux de neurones et des machines à noyau, mais jusqu'à présent, j'ai essayé et je n'ai pas pu comprendre la logique derrière cela. Mais il est sûrement intéressant de noter les liens entre deux techniques ml très très différentes.
EDIT: Je pense que la compréhension des SVM d'un point de vue neuronal serait formidable. Je suis à la recherche d'une réponse approfondie soutenue par les mathématiques aux deux questions ci-dessus, afin de vraiment comprendre le lien entre les SVM et les réseaux neuronaux, à la fois dans le cas des SVM linéaires et des SVM avec l'astuce du noyau.