Tecnología

Inicio

Cómo bloquear Surphace scout

administradores de sitios web pueden utilizar el archivo de texto "robots.txt" en la carpeta raíz de su servidor Web para bloquear los robots web. Estos robots web son procesos automatizados que indexar el contenido a través de Internet a los efectos de la adición de su contenido a los motores de búsqueda y aumentar la exposición de su sitio web. Una de estas robot es Surphace scout / 4.0 que los índices de contenido para el sistema de recomendación de contenido de AOL. Si desea bloquear el robot explorador Surphace / 4.0 tengan acceso a su sitio web, puede configurar su propio archivo "robots.txt" para mantenerlo fuera.

Instrucciones

1 Haga clic derecho en el escritorio, a continuación, haga clic en "Nuevo" y "Archivo de texto" para crear un archivo de texto en blanco.

2 Haga clic derecho en el archivo de texto, a continuación, haga clic en "Cambiar nombre". Tipo "robots.txt" como nombre de archivo y pulse "Enter".

3 Haga doble clic en el archivo "robots.txt" para abrirlo.

4 Tipo "User-agent: Surphace scout / 4.0" y presionar "Enter".

5 Tipo "Disallow: /" y presionar "Enter".

6 Haga clic en el menú "Archivo", luego haga clic en "Guardar".

7 Poner en marcha su aplicación FTP. Escriba su dirección de FTP, nombre de usuario y la contraseña en los campos de texto, a continuación, haga clic en "Conectar".

8 Navegar en el escritorio en el panel local de la ventana del programa FTP. Vaya a la carpeta raíz de su sitio web en el panel de servidores, donde se encuentra su página de inicio.

9 Arrastre y suelte la carpeta "robots.txt" en el panel local para el panel de servidor para cargar el archivo, bloqueando el robot explorador Web Surphace / 4.0.