J'ai un site qui, pour des raisons réglementaires, peut ne pas être indexé ou recherché automatiquement. Cela signifie que nous devons éloigner tous les robots et les empêcher d'araignées sur le site.
De toute évidence, nous avons eu un fichier robots.txt qui interdit tout de suite depuis le début. Cependant, l'observation du fichier robots.txt est quelque chose que seuls les robots se comportent bien. Récemment, nous avons eu des problèmes avec des robots moins bien comportés. J'ai configuré Apache pour interdire quelques agents utilisateurs, mais il est assez facile de contourner cela.
Donc, la question est, existe-t-il un moyen de configurer Apache (peut-être en installant un module?) Pour détecter un comportement de type robot et répondre? D'autres idées?
Pour le moment, tout ce que je peux faire est d'interdire les adresses IP sur la base d'une inspection manuelle des journaux et ce n'est tout simplement pas une stratégie viable à long terme.