Méthode de régularisation
Pour les 4 techniques suivantes, la régularisation L1 et la régularisation L2 sont inutiles pour dire qu'elles doivent être une méthode de régularisation. Ils réduisent le poids. L1 se concentrerait sur la réduction d'une plus petite quantité de poids si les poids ont une importance plus élevée.
Le décrochage empêche le surapprentissage en abandonnant temporairement les neurones. Finalement, il calcule tous les poids en moyenne afin que le poids ne soit pas trop grand pour un neurone particulier et c'est donc une méthode de régularisation.
La normalisation des lots ne doit pas être une méthode de régularisation car son objectif principal est d'accélérer la formation en sélectionnant un lot et en forçant le poids à être distribué près de 0, ni trop grand, ni trop petit.
Le choisir
Pour moi, le mini-batch est un must car il peut accélérer le processus et améliorer les performances du réseau à chaque fois.
L1 et L2 sont tous deux similaires et je préférerais L1 en petit réseau.
Idéalement, le décrochage devrait s'appliquer en cas de problème de variation importante ou de sur-ajustement.
Enfin et surtout, je suis d'accord avec Neil Slater que cela dépend de la situation et qu'il n'y aura jamais de solution optimale.
Je vous recommande de lire ceci pour plus d'informations. C'est un très bon matériel. http://neuralnetworksanddeeplearning.com/chap3.html