J'utilise le fichier robots.txt suivant pour un site: l'objectif est de permettre à googlebot et bingbot d'accéder au site à l'exception de la page /bedven/bedrijf/*
et d'empêcher tous les autres bots d'explorer le site.
User-agent: googlebot
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: google
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: bingbot
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: bing
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: *
Disallow: /
La dernière règle User-agent: * Disallow: /
interdit-elle à tous les robots d'explorer toutes les pages du site?
robots.txt
façon
robots.txt
, ou du moins la Disallow: /
règle. Si votre site Web personnel est enfoncé dans le sol parce qu'un programmeur de robots n'a jamais considéré que le serveur pourrait être un Raspberry Pi à la mauvaise extrémité d'une connexion à 256 kbit, une exclusion globale comme celle-ci est utile.