J'ai quelques URL générées dynamiquement.
Puis-je utiliser l'expression régulière pour bloquer ces URL dans un fichier robots.txt?
J'ai quelques URL générées dynamiquement.
Puis-je utiliser l'expression régulière pour bloquer ces URL dans un fichier robots.txt?
Réponses:
Les expressions régulières ne sont pas valides dans robots.txt, mais Google, Bing et certains autres bots reconnaissent certaines correspondances de modèles.
Supposons que si vous vouliez bloquer toutes les URL qui ont example
n'importe où dans l'URL, vous pouvez utiliser une entrée générique *
User-agent: *
Disallow: /*example
Vous pouvez également utiliser le signe dollar $ pour spécifier que les URL doivent se terminer de cette façon. Donc, si vous souhaitez bloquer toutes les URL qui se terminent par example
, mais pas les URL qui ont un example
autre endroit dans l'URL, vous pouvez utiliser:
User-agent: *
Disallow: /*example$
Plus d'informations détaillées sur Google peuvent être trouvées ici: Spécifications Robots.txt , Bing ici: Comment créer un fichier Robots.txt et il y a un guide interactif sur Moz ici