Patrosinadores

miércoles, 10 de febrero de 2016

LOS PRINCIPALES PROBLEMAS DE RASTREO EN DETALLE

Tutoriales SEO > LOS PRINCIPALES PROBLEMAS DE RASTREO EN DETALLE


URLS CONSTRUIDAS CON JAVASCRIPT

Funciones de JavaScript que construyen las URL’s destino al vuelo a partir de eventos generados por el usuario (como hacer clic en una entrada de menú, pasear el ratón por una zona, etc.) o que incluyen dentro del tag <A HREF> una llamada a una función JavaScript. Los rastreadores de los buscadores no cuentan con un intérprete JavaScript; no por dificultad de implementación, sino por ralentización del rastreo debido al tiempo extra de interpretación.

URLS EMBEBIDAS EN FLASH

URL’s que se muestran interaccionando con una animación en formato ‘swf’ (formato “Macromedia Flash”) o cualquier otro formato multimedia interactivo. El formato es pesado y complicado de analizar, así como dificulta la interacción del usuario con la representación visual. Los robots de los buscadores no consiguen progresar por estas URL’s.

PÁGINAS CON FRAMES

El uso de ‘marcos’ (“frames”) complica la progresión lineal de los robots por el grafo de enlaces del sitio Web, apareciendo dificultades como:

Problemas de recursividad en la progresión.

Necesidad de descargas ‘extra’ por residir el código de los ‘marcos’ fuera de la página descargada.

Ambigüedades en la titulación de las páginas.

COMPLICACIONES ASOCIADAS A CIERTAS PÁGINAS DINÁMICAS

Existen problemas de rastreo asociados a páginas que redirigen a otra (o bien sirven un fichero estático) en función de los parámetros que le llegan vía “POST”, “GET” o variables de sesión (se entiende por variables de sesión tanto el uso de ‘cookies’ como el uso de variables de servidor y que se utilizan para modificar el contenido de una misma URL o para generar enlaces). Los mismos parámetros pueden generar diferentes páginas en función de variables de sesión y parámetros diferentes pueden dar lugar a las mismas páginas rompiendo la regla de la unicidad en la indexación, puesto que una misma URL pasa a representar diferentes contenidos y viceversa.

Si a pesar de todo, los robots progresan por un sitio Web con páginas de este tipo, su presencia en los buscadores implicará:

Ausencia de completitud: no todos los contenidos se han podido alcanzar mediante descubrimiento de enlaces, pues hay implicadas variables de formularios y/o de sesión que nos restringen el dominio de los documentos.

Ausencia de unicidad: al no haber correspondencia biunívoca entre contenidos y urls, la indexación, y por tanto la búsqueda, carece de sentido. Según las diferencias entre el estado de sesión del usuario y el del rastreador original, la URL resultante en la búsqueda se resolverá a documentos diferentes.
No obstante, no todas las páginas dinámicas producen estos impedimentos. El uso de cookies no es perjudicial siempre y cuando no se utilicen para variar el contenido asociado con una misma URL.

 De igual forma, la utilización de variables de servidor no es problemática excepto cuando dichos valores se utilizan para generar enlaces o contenidos distintos. En estos casos donde el uso de estos parámetros no es perjudicial, se debe configurar un tiempo de expiración suficientemente grande para que las arañas sean capaces de progresar por todo el sitio Web.

FORMULARIOS

La inclusión de formularios en las páginas Web presupone una interacción humana, en la cual se rellenan una serie de campos y se seleccionan unos determinados valores. La automatización de este comportamiento no es recomendable. En el caso de la utilización del método de envío de formularios GET, se puede mantener la asociación biunívoca entre URL y contenido puesto que los parámetros del formulario pasan a formar parte de la URL. Esto no es posible si se utiliza el método POST. La utilización de formularios Web que utilizan el método POST es la forma más común de crear lo que se conoce como ‘Web oculta’.

MULTITUD DE PARÁMETROS EN URLS DE PÁGINAS DINÁMICAS

Para evitar bucles en el recorrido de la estructura de páginas de los sitios Web, los robots de los buscadores no suelen descargar URLs con más de tres o cuatro parámetros.

ESTRUCTURA DE ENLACES DEL SITIO WEB.

Los robots de rastreo de los buscadores no progresan indefinidamente por la estructura de enlaces de los sitios Web. Se suelen producir cortes al 5 o 6 nivel de profundidad. Dicho nivel disminuye si hablamos de sitios de antigüedad reducida y/o considerados poco relevantes. En general, es recomendable tener una estructura lo más aplanada posible, lo cual permite alcanzar cualquier página en el menor número de saltos; aunque tampoco se recomienda llevar este punto hasta el extremo. Conviene además tener en cuenta que a los buscadores no les suelen gustar páginas con muchos enlaces (por debajo de 100 suele ser un valor seguro).


Eso es todo amigos, recurden compartir mi página y comentar, me llevo mucho tiempo crear estos tutos por ustedes :D Tutoriales SEO



No hay comentarios:

Publicar un comentario