Je n'aime pas que je vois beaucoup d'erreurs 404 dans le fichier access.log de mon serveur Web. Je reçois ces erreurs parce que les robots tentent d'ouvrir un fichier robots.txt , mais n'en ont pas trouvé. Je veux donc placer un simple fichier robots.txt qui empêchera les erreurs 404 d'apparaître dans mon fichier journal.
Qu'est-ce qu'un fichier robots.txt valide minimum qui permettra d'explorer tout ce qui se trouve sur le site?