Autant que je sache, les réseaux de neurones ont un nombre fixe de neurones dans la couche d'entrée.
Si des réseaux de neurones sont utilisés dans un contexte tel que la PNL, des phrases ou des blocs de texte de différentes tailles sont envoyés à un réseau. Comment la taille de l'entrée variable est-elle réconciliée avec la taille fixe de la couche d'entrée du réseau? En d'autres termes, comment un tel réseau est-il suffisamment flexible pour traiter une entrée pouvant aller d'un mot à plusieurs pages de texte?
Si mon hypothèse d'un nombre fixe de neurones d'entrée est fausse et que de nouveaux neurones d'entrée sont ajoutés / retirés du réseau pour correspondre à la taille de l'entrée, je ne vois pas comment ils pourraient être formés.
Je donne l'exemple de la PNL, mais beaucoup de problèmes ont une taille d'entrée intrinsèquement imprévisible. Je suis intéressé par l'approche générale pour faire face à cela.
Pour les images, il est clair que vous pouvez monter / réduire l’échantillon à une taille fixe, mais pour le texte, cela semble être une approche impossible, car l’ajout / la suppression de texte modifie le sens de la saisie d’origine.