Dans l'esprit de la célèbre blague Tensorflow Fizz Buzz et problème XOr, j'ai commencé à penser, s'il était possible de concevoir un réseau de neurones qui implémente la fonction ?
Étant donné une certaine représentation d'un nombre (par exemple, comme un vecteur sous forme binaire, de sorte que ce nombre 5
est représenté par [1,0,1,0,0,0,0,...]
), le réseau neuronal devrait apprendre à retourner son carré - 25 dans ce cas.
Si je pouvais implémenter , je pourrais probablement implémenter et généralement n'importe quel polynôme de x, puis avec la série Taylor je pourrais approximer , ce qui résoudrait le problème Fizz Buzz - un réseau de neurones qui peut trouver le reste de la division.
De toute évidence, seule la partie linéaire des NN ne pourra pas effectuer cette tâche, donc si nous pouvions faire la multiplication, cela se produirait grâce à la fonction d'activation.
Pouvez-vous suggérer des idées ou lire sur le sujet?