Robots
Se puede añadir en el directorio raíz del servidor web un fichero llamado robots.txt para indicar el comportamiento que tienen que tener los buscadores y los programas de descargas sobre el servidor. Con este fichero podemos indicar qué buscadores pueden acceder al servidor y sobre qué directorio actuar. Se supone que todos los programas de descarga deben respetarlo, aunque no siempre es así.
Un ejemplo de fichero robots.txt podría ser:
User-agent: * Disallow: /admin/ Disallow: /imagenes/ Disallow: /includes/ Disallow: /privado/ |
con lo cual estaríamos prohibiendo que los buscadores y programas de descarga accedieran a estos directorios.
La configuración del fichero tiene la siguiente sintaxis:
<Campo> ":" <valor>
donde cada línea tiene que terminar en modo Unix, es decir terminada sólo con \n y no con \n\r como terminan las línea de los ficheros dos/win32.
Los campos pueden ser: