J'ai un répertoire avec environ 100000 petits fichiers (chaque fichier est de 1 à 3 lignes, chaque fichier est un fichier texte). En taille, le répertoire n'est pas très grand (<2 Go). Ces données résident dans un serveur NFS géré par des professionnels. Le serveur exécute Linux. Je pense que le système de fichiers est ext3, mais je ne sais pas avec certitude. De plus, je n'ai pas d'accès root au serveur.
Ces fichiers sont le résultat d'une expérience scientifique à grande échelle, sur laquelle je n'ai aucun contrôle. Cependant, je dois analyser les résultats.
Toute opération / traitement d'E / S dans ce répertoire est très, très lente. L'ouverture d'un fichier (fopen en python), la lecture d'un fichier ouvert, la fermeture d'un fichier, sont toutes très lentes. En bash ls, du, etc. ne fonctionnent pas.
La question est:
Quel est le nombre maximum de fichiers dans un répertoire sous Linux de telle sorte qu'il soit pratique de faire le traitement, l'ouverture, la lecture, etc.? Je comprends que la réponse dépend de beaucoup de choses: type de fs, version du noyau, version du serveur, matériel, etc. Je veux juste une règle d'or, si possible.