Dans l'apprentissage automatique de base, nous apprenons les «règles de base» suivantes:
a) la taille de vos données doit être au moins 10 fois supérieure à la dimension VC de votre ensemble d'hypothèses.
b) un réseau neuronal avec N connexions a une dimension VC d'environ N.
Ainsi, lorsqu'un réseau neuronal d'apprentissage en profondeur a, par exemple, des millions d'unités, cela signifie-t-il que nous devrions avoir, disons, des milliards de points de données? Pouvez-vous nous éclairer à ce sujet?