Robots.txt est un fichier texte utilisé par les propriétaires de sites Web pour donner des instructions sur leur site aux robots Web. Fondamentalement, il indique aux robots quelles parties du site sont ouvertes et quelles parties sont fermées. C'est ce qu'on appelle le protocole d'exclusion des robots.