Autant que je sache, les MOS de style Kohonen ont connu un pic vers 2005 et n’ont pas suscité autant de faveur récemment. Je n'ai trouvé aucun article indiquant que les MOS ont été assimilés par une autre méthode ou prouvés équivalents à autre chose (de toute façon à des dimensions plus élevées). Mais il semble que tSNE et d'autres méthodes prennent beaucoup plus d'encre de nos jours, par exemple dans Wikipedia ou dans SciKit Learn, et que SOM est davantage citée en tant que méthode historique.
(En fait, un article de Wikipedia semble indiquer que les MOS ont toujours certains avantages sur leurs concurrents, mais qu’il s’agit également de l’entrée la plus courte de la liste. EDIT: À la demande de Pergung, l’un des articles auquel je pense est le suivant: Réduction de la dimensionnalité non linéaire Notez que SOM a moins écrit à ce sujet que les autres méthodes. Je ne trouve pas l’article qui mentionne un avantage que les SOM semblent conserver par rapport à la plupart des autres méthodes.)
Des idées? Quelqu'un d'autre a demandé pourquoi les MOS ne sont pas utilisées et a obtenu des références il y a quelque temps. J'ai trouvé des comptes rendus de conférences SOM, mais je me demandais si l'essor des SVM ou de la tSNE, et autres, venait d'éclipser les SOM dans l'apprentissage automatique.
EDIT 2: Par pure coïncidence, je venais de lire ce soir une étude de 2008 sur la réduction de la dimensionnalité non linéaire, citée à titre d’exemple: Isomap (2000), intégration linéaire locale (LLE) (2000), Hessian LLE (2003), Laplacien les cartes propres (2003) et l’intégration semi-définie (SDE) (2004).