Je veux tester comment mon site se comporterait lorsqu'il serait araignée. Cependant, je souhaite exclure toutes les URL contenant le mot "page". J'ai essayé:
$ wget -r -R "*page*" --spider --no-check-certificate -w 1 http://mysite.com/
Le -R
drapeau est censé rejeter le modèle d'URL contenant le mot "page". Sauf que ça ne semble pas fonctionner:
Spider mode enabled. Check if remote file exists.
--2014-06-10 12:34:56-- http://mysite.com/?sort=post&page=87729
Reusing existing connection to [mysite.com]:80.
HTTP request sent, awaiting response... 200 OK
Comment exclure l'araignée d'une telle URL?