Patrosinadores

lunes, 11 de julio de 2016

Accesibilidad Web

Tutoriales SEO > ¿Cómo hacer que Google se enamore de tu web?  > Accesibilidad Web

Lo primero en lo que hay que fijarse es en si tu web es visible a los ojos de los motores de búsqueda, y sobre todo, en cómo estos están viendo tu página. Por algunos motivos que explicaremos más adelante, puede darse el caso de que los motores de búsqueda no puedan leer correctamente tu web.

ARCHIVO ROBOTS.TXT

El archivo robots.txt se usa para impedir que los motores de búsqueda accedan e indexen ciertas partes de tu web. Por ejemplo en Wordpress, para que no accedan a los archivos de administrador, el archivo robots.txt sería así:

 

OJO: Debes tener mucho cuidado de no bloquear el acceso de los motores de búsqueda a toda tu web sin darte cuenta, como en este ejemplo:
 
 Debemos comprobar que el archivo robots.txt no está bloqueando ninguna parte importante de nuestra web, bien visitando la url www.ejemplo.com/robots.txt, o bien a través de Google Webmaster Tools.

El archivo robots.txt también puede usarse para indicar donde se encuentra nuestro sitemap, añadiendo en la última línea del documento.
 
Por lo tanto, un ejemplo de robots.txt completo para Wordpress se vería así:

 

Meta etiqueta robots 

La meta etiqueta “robots” se utiliza para decirle a los robots de los motores de búsqueda si pueden o no indexar la página y si deben seguir los enlaces que contiene. A la hora de analizar una página deberás comprobar si hay alguna meta etiqueta que por error esté bloqueando el acceso a estos robots. Este es un ejemplo de cómo se verían estas etiquetas en el código HTML:








 

 Por otra parte las meta etiquetas son muy útiles para evitar que Google indexe páginas web que no te interesen, como pueden ser las paginaciones o los filtros, pero que siga los enlaces para que continúe rastreando nuestra web. En este caso la etiqueta quedaría así:

 

Códigos de estado HTTP

En el caso de que alguna URL devuelva un código de estado (404, 502, etc), los usuarios y los motores de búsqueda no podrán acceder a esa página. Para identificar estas URLs, os recomendamos usar Screaming Frog, una aplicación que te muestra rápidamente el estado de todas las URLs de tu página.

IDEA: Cada vez que hagas una nueva búsqueda en Screaming Frog exporta el resultado en un CSV. Así las podrás reunir todas en un mismo Excel más tarde.





Sitemap

El sitemap es un archivo XML que contiene una lista de las páginas web del sitio junto con alguna información adicional, como con qué frecuencia la página cambia sus ontenidos, cuándo fue su última actualización, etc. Un pequeño extracto de un sitemap sería:





Hay varios puntos importantes que debes comprobar respecto al Sitemap:

  • Sigue los protocolos, si no Google no lo procesará adecuadamente.
  • Está subido a Google Webmaster Tools
  • Está actualizado. Cuando actualices tu web, asegúrate que tienes todas las páginas nuevas en tu sitemap.
  • Todas las páginas que hay en el sitemap están siendo indexadas por Google.

En caso de que la web no disponga de ningún sitemap deberemos crear uno, siguiendo
cuatro pasos:

  • Crea un Excel con todas las páginas que queremos que se indexen, para ello
  • usaremos el mismo Excel que creamos al hacer las búsqueda de los códigos
  • de respuesta HTTP.
  • Crea el sitemap. Para ello te recomendamos la herramienta Sitemap Generators (sencilla y muy completa).
  • Compara las páginas que hay en tu excel y las que hay en el sitemap y elimina del excel las que no queremos que se indexen.
  • Sube el sitemap a través de Google Webmaster Tools.

Arquitectura de la web

Haz un esquema de toda la web en el que se pueda ver fácilmente los niveles que tiene, desde la home hasta la página más profunda, y cuántos clicks hacen falta para llegar a ella. Te debería de quedar algo así:






Puedes localizar en qué nivel está cada página y si tienes enlaces apuntando hacia ella de nuevo con Screaming Frog. Esto es importante porque Google tiene un iempo limitado para rastrear una web, cuantos menos niveles tenga que saltar para llegar a lo más profundo, mejor.

Javascript y CSS

Aunque en los últimos años Google se ha vuelto más inteligente a la hora de leer este tipo de tecnologías, debemos tener cuidado porque el Javascript puede ocultar parte de nuestro contenido y las CSS pueden desordenarlo, mostrándolo en otro orden al que lo ve Google. Usando el plugin Web Developer para Firefox o para Chrome nos será mucho más fácil ver cómo “ve” la web un buscador.

Lo primero que tienes que hacer es desactivar el Javascript. Esto lo hacemos porque todos los menús desplegables, enlaces y textos tienen que poder ser leídos por Google. Después con Web Developer desactivamos el CSS, ya que queremos ver el orden real del contenido y el CSS puede cambiar esto completamente.

ASEGURATE DE QUE CUMPLES LOS SIGUIENTES PUNTOS:
✓✓Puedes ver todos los enlaces del menú
✓✓Todos los enlaces de la web son clicables
✓✓No hay texto que no sea visible con CSS y Javascript activados
✓✓Los enlaces más importantes están en la parte superior


Velocidad de la web


Es un factor vital no solo para posicionamiento si no que además es clave en una buena experiencia de usuario.

Una carga de página muy lenta puede hacer que tu porcentaje de rebote se dispare. También hay que tener en cuenta que el robot de Google tiene un tiempo limitado a la hora de navegar por nuestra página, cuanto menos tarde cada página en cargar, a más páginas conseguirá llegar.

Para ver la velocidad de carga de tu web, te recomendamos Google Page Speed, allí puedes ver cuáles son los problemas que más ralentizan tu web, además de consejos que te dará Google para atajarlos. Céntrate en los que tienen prioridad alta y media.

Eso es todo amigos esperen el próximo post y visten mi web de servicio SEO en Mexico

¿Cómo hacer que Google se enamore de tu web?



Hola amigos después de haber terminado el primer tutorial de SEO, es hora de regresar a la vida este pequeño blog y traerle a ustedes el nuevo manual: Como hacer que Google se enamore de tu pagina web.

Así que iniciemos el primer capítulo!!!! 



En este ebook pretendemos explicar, de forma directa y sencilla, los principales pasos para optimizar nuestra web en buscadores. Esta guía está pensada como un punto de partida para todos aquellos que se están iniciando al mundo del posicionamiento en buscadores y, por supuesto, para todos los que ya trabajan en este sector y quieren tener una referencia de trabajo y contrastar información. visita nuestra web Posicionamiento web Mexico
Es, en definitiva, una serie de pautas básicas para resolver los principales problemas
de una web en cuanto a optimización para buscadores se refiere.

 
ÍNDICE

1 ACCESIBILIDAD WEB
2 INDEXABILIDAD
3 FACTORES CLAVE
4 RECURSOS
5 TERMINOLOGÍA USADA