Cette question est en réponse à un commentaire que j'ai vu sur une autre question.
Le commentaire concernait le programme de cours de Machine Learning sur Coursera, dans le sens suivant: "Les SVM ne sont plus autant utilisés de nos jours".
Je viens juste de terminer moi-même les cours pertinents, et je crois comprendre que les SVM sont un algorithme d’apprentissage robuste et efficace pour la classification et que, lorsqu’ils utilisent un noyau, ils disposent d’une "niche" couvrant un nombre de fonctionnalités pouvant aller de 10 à 1000 et nombre d'échantillons d'apprentissage, peut-être 100 à 10 000. La limite imposée aux échantillons d'apprentissage est due au fait que l'algorithme principal consiste à optimiser les résultats générés à partir d'une matrice carrée dont les dimensions sont basées sur le nombre d'échantillons d'apprentissage et non sur le nombre de caractéristiques d'origine.
Le commentaire que j’ai vu fait référence à de réels changements depuis la formation, et dans l’affirmative, qu’est-ce qui change? Un nouvel algorithme qui couvre aussi bien le "point idéal" de SVM, de meilleurs processeurs signifiant que les avantages informatiques de SVM ne valent pas autant. ? Ou est-ce peut-être l'opinion ou l'expérience personnelle du commentateur?
J'ai essayé une recherche, par exemple, "sont des machines à vecteurs de support démodées" et je n'ai rien trouvé qui implique qu'ils ont été abandonnés au profit de rien d'autre.
Et Wikipedia a ceci: http://en.wikipedia.org/wiki/Support_vector_machine#Issues . . . le principal point de blocage semble être la difficulté d'interprétation du modèle. Ce qui rend SVM très bien pour un moteur de prédiction de type boîte noire, mais moins pour générer des informations. Je ne vois pas cela comme un problème majeur, mais comme un élément mineur à prendre en compte lors du choix du bon outil pour le travail (avec la nature des données de formation et la tâche d'apprentissage, etc.).