Una parte fundamental
que en ocasiones suele, ser el error pequeño, pero más grande para posicionar
una página web, es no tener optimizado el robots.txt y el sitemap.
Recuerda que el
robots.txt puede ayudar o perjudicar, si bien ya sea impidiendo o no el acceso
a las páginas web. Leer que es un rubots.txt
También ya se a
mencionado que el sitemap ayuda a los robots a rastrear adecuadamente las
páginas. Leer Que es un sitemap
Crea
un robots.txt para indicarle a los buscadores dónde deben rastrear y dónde no.
Si hay páginas que no tiene sentido indexar, exclúyelas en los robots. Muchos
expertos aseguran que es preferible centrar la actividad de las arañas en las
páginas realmente interesantes.
Crea
un sitemap y referéncialo desde el robots.txt para facilitar la tarea a las
arañas de los buscadores.
De
tal manera indicas desde el robots la ubicación del sitemap, optimizando asi el
proceso!!!!!
Más fácil imposible.
No hay comentarios:
Publicar un comentario