Questions marquées «robots.txt»

Robots.txt est un fichier texte utilisé par les propriétaires de sites Web pour donner des instructions sur leur site aux robots Web. Fondamentalement, il indique aux robots quelles parties du site sont ouvertes et quelles parties sont fermées. C'est ce qu'on appelle le protocole d'exclusion des robots.


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.