J'ai lu quelques articles sur l'initialisation du noyau et de nombreux articles mentionnent qu'ils utilisent la régularisation L2 du noyau (souvent avec ).
Quelqu'un fait-il autre chose que d'initialiser le biais avec un zéro constant et de ne pas le régulariser?
Documents d'initialisation du noyau
- Mishkin et Matas: tout ce dont vous avez besoin est une bonne init
- Xavier Glorot et Yoshua Bengio: comprendre la difficulté de former des réseaux neuronaux profonds à action directe
- He et al: Plonger profondément dans les redresseurs: dépasser les performances au niveau humain sur la classification ImageNet