Je lis des techniques de calcul de réservoir comme Echo State Networks et Liquid State Machines . Les deux méthodes impliquent de fournir des entrées à une population de neurones de dopage connectés de manière aléatoire (ou non), et un algorithme de lecture relativement simple qui produit la sortie (par exemple, la régression linéaire). Les poids de la population de neurones sont soit fixes, soit entraînés via une règle d'activité locale de type hébbien comme STDP .
Ces techniques fonctionnent bien lors de la modélisation d'entrées multidimensionnelles qui ont des composantes temporelles importantes. Cependant, le calcul des potentiels de membrane des neurones dopants implique l'intégration d'équations différentielles et peut être coûteux en calcul.
Existe-t-il des exemples de cas où la complexité de calcul supplémentaire des techniques de calcul de réservoir est compensée par des gains dans une tâche de prédiction ou de classification?
Par exemple, existe-t-il des cas où les techniques SNN surpassent des architectures complexes comparables basées sur des RNN, des ANN, des SVM, des DNN, des CNN ou d'autres algorithmes?