Nous avons une configuration de serveur Web de développement XAMPP Apache avec des hôtes virtuels et nous voulons empêcher les serps d'explorer tous nos sites. Cela se fait facilement avec un fichier robots.txt. Cependant, nous préférons ne pas inclure un fichier robots.txt non autorisé dans chaque vhost, puis le supprimer lorsque nous avons mis le site en ligne sur un autre serveur.
Existe-t-il un moyen avec un fichier de configuration apache de réécrire toutes les demandes vers robots.txt sur tous les vhosts dans un seul fichier robots.txt?
Si oui, pourriez-vous me donner un exemple? Je pense que ce serait quelque chose comme ça:
RewriteEngine On
RewriteRule .*robots\.txt$ C:\xampp\vhosts\override-robots.txt [L]
Merci!