Sur mon ordinateur portable Dell Core i7 - 16 Go de RAM - 4 Go 960 m GPU, je travaille sur un projet de classification des images CT pulmonaires à l'aide de CNN 3D. J'utilise la version CPU de tensorflow. Les images sont préparées sous forme de tableau numpy (25,50,50).
Mon modèle CNN avait 2 couches conv, deux couches maxpool, une couche FC et une couche de sortie. Avec cette architecture, j'ai pu former le modèle avec environ (5000 à 6000) échantillons. Après avoir ajouté plus de couches, mon modèle a maintenant 6 couches conv, 3 couches max-pool, FC et couche de sortie. Mon problème est après avoir changé l'architecture avec un peu plus de 1000 échantillons, ma mémoire est remplie et j'obtiens une erreur de mémoire. J'ai essayé de faire des lots plus petits, mais à chaque fois j'ai la même erreur. J'ai deux questions:
Pourquoi en ajoutant plus de couches, le modèle a besoin de plus de mémoire?
Existe-t-il un moyen de traiter ce type de problème?