Dans la plupart des exemples que j'ai vus jusqu'à présent de réseaux de neurones, le réseau est utilisé pour la classification et les nœuds sont transformés avec une fonction sigmoïde. Cependant, je voudrais utiliser un réseau de neurones pour produire une valeur réelle continue (de manière réaliste, la sortie serait généralement comprise entre -5 et +5).
Mes questions sont:
1. Should I still scale the input features using feature scaling? What range?
2. What transformation function should I use in place of the sigmoid?
Je cherche à l'implémenter initialement PyBrain qui décrit ces types de couches .
Je pense donc que je devrais avoir 3 couches pour commencer (une couche d'entrée, cachée et de sortie) qui sont toutes des couches linéaires? Est-ce une manière raisonnable? Ou bien pourrais-je "étirer" la fonction sigmoïde sur la plage -5 à 5?