Cómo Configurar un Archivo robots.txt para Permitir el Acceso Solo a la Página de Inicio

Si alguna vez has tenido un sitio web, sabes la importancia de mantener ciertas partes ocultas de los rastreadores web y bots. En esta publicación, vamos a abordar una pregunta común: ¿Cómo puedes configurar un archivo robots.txt para permitir solo la página de inicio por defecto de tu sitio mientras bloqueas todo lo demás?

Comprendiendo el robots.txt

Un archivo robots.txt es un estándar que utilizan los sitios web para comunicarse con los rastreadores y arañas web. Te permite definir qué partes de tu sitio deseas que sean rastreadas e indexadas por motores de búsqueda como Google, Bing y Yahoo, y cuáles partes deseas mantener fuera de los límites.

¿Por Qué Usar robots.txt?

  • Control de Acceso: Evitar que los rastreadores web accedan a páginas no importantes.
  • Mejorar SEO: Mejorar el rendimiento de búsqueda de tu sitio gestionando lo que se indexa.
  • Proteger Contenido: Mantener contenido sensible o innecesario alejados de la exposición pública.

En este tutorial, nos enfocaremos particularmente en cómo garantizar que solo tu página de inicio sea accesible para los rastreadores, mientras que otras páginas y sus correspondientes cadenas de consulta están bloqueadas.

Configurando tu Archivo robots.txt

Para permitir solo tu página de inicio y bloquear todas las demás URL, querrás usar un conjunto específico de reglas en tu archivo robots.txt. Así es como se vería ese código:

User-Agent: *
Disallow: /*
Allow: /?okparam=
Allow: /$

Desglose del Código

  1. User-Agent: *

    • Esta línea especifica que las reglas aplican a todos los rastreadores web. El asterisco (*) es un símbolo comodín.
  2. Disallow: /*

    • Esta línea indica a los rastreadores que bloqueen el acceso a todas las páginas de tu sitio web.
  3. Allow: /?okparam=

    • Esta línea permite a los rastreadores acceder a la página de inicio si la cadena de consulta incluye okparam=true.
  4. Allow: /$

    • El signo de dólar ($) significa el final de la URL, lo que significa que permitirá que la página de inicio (http://ejemplo.com o http://ejemplo.com/) sea indexada.

Ejemplos de URLs

  • Permitidos:

    • http://ejemplo.com
    • http://ejemplo.com/?okparam=true
  • Bloqueados:

    • http://ejemplo.com/cualquiercosa
    • http://ejemplo.com/someendpoint.aspx
    • http://ejemplo.com?cualquiercosaexceptookparam=true

Guardando tu Archivo robots.txt

  1. Crea un archivo de texto llamado robots.txt.
  2. Copia y pega el código proporcionado arriba en el archivo de texto.
  3. Sube este archivo al directorio raíz de tu sitio web.

Probando tu Archivo robots.txt

Después de haber subido tu archivo robots.txt, es crucial probarlo para asegurarte de que todo funcione como lo has planeado.

  • Usa herramientas como la Google Search Console para ver cómo Googlebot interpreta el robots.txt de tu sitio.
  • Haz ajustes si es necesario en base a la retroalimentación de las pruebas.

Conclusión

Configurar un archivo robots.txt correctamente es crucial para gestionar qué partes de tu sitio son indexadas por los motores de búsqueda. Siguiendo los pasos que se describen arriba, podrás permitir que los rastreadores web accedan solo a tu página de inicio mientras bloqueas efectivamente todas las demás páginas. Con este control, puedes mejorar la estrategia de SEO de tu sitio mientras proteges contenido que no es relevante para la indexación pública.

Al implementar esta solución sencilla, podrás gestionar eficientemente la visibilidad de tu sitio web en la red. ¡Feliz rastreo!