Actualización de las directrices técnicas para webmasters
martes, 28 de octubre de 2014
En las nuevas directrices explicamos que para optimizar el procesamiento y la indexación de un sitio, se debe permitir el acceso de Googlebot a los archivos JavaScript, CSS y de imagen que utilicen las páginas. Este ajuste optimizará el procesamiento y la indexación de tu sitio.
Si desactivas el rastreo de los archivos JavaScript o CSS en el archivo robots.txt de tu sitio, el procesamiento y la indexación de contenido que realizan nuestros algoritmos se verán afectados directamente y se podría producir una clasificación inferior al nivel óptimo.
Como siempre, si tienes algún comentario o alguna pregunta, visita nuestro foro de ayuda para webmasters.
Escrito por Pierre Far, Analista de tendencias de webmasters, Publicado por Javier Pérez equipo de calidad de búsqueda
Consejos actualizados para optimizar la indexación
En el pasado, los sistemas de indexación de Google se parecían a los antiguos navegadores de solo texto, como Lynx, y así lo afirmábamos en las directrices para webmasters. Ahora, con un sistema de indexación basado en el procesamiento de las páginas, esta afirmación deja de ser exacta. En su lugar, sería más acertado considerarlo como un navegador web moderno. Teniendo en cuenta esta nueva perspectiva, debes tener en cuenta lo siguiente:- Al igual que los navegadores modernos, es posible que nuestro motor de procesamiento no sea compatible con todas las tecnologías que utiliza una página. Asegúrate de que el diseño de tu sitio web cumpla los principios de la mejora progresiva; de este modo, ayudarás a nuestros sistemas (y a una gran variedad de navegadores) a ver el contenido útil y las funciones básicas si determinadas funciones de diseño web todavía no son compatibles.
- Un procesamiento rápido de las páginas no solo permite que los usuarios accedan al contenido con mayor facilidad, sino que también mejora la eficiencia de la indexación de las páginas. Te recomendamos que sigas las prácticas recomendadas para optimizar el rendimiento de la página, en concreto, las siguientes:
- Eliminar las descargas innecesarias
- Optimizar la publicación de los archivos CSS y JavaScript: para ello, debes concatenar (combinar) los archivos CSS y JavaScript independientes, minificar los archivos concatenados y configurar el servidor web para que se publiquen comprimidos (normalmente, mediante compresión gzip).
- Comprueba que tu servidor pueda gestionar la carga adicional que supone la publicación de los archivos JavaScript y CSS en Googlebot.
Evaluación y resolución de problemas
Además del lanzamiento de la indexación basada en el procesamiento, también hemos actualizado la función Explorar y procesar como Google de Herramientas para webmasters para que los webmasters puedan ver cómo nuestros sistemas procesan la página. Con esta mejora, podrás identificar muchos problemas de indexación, restricciones de robots.txt incorrectas y redireccionamientos que Googlebot no puede seguir, entre otros.Como siempre, si tienes algún comentario o alguna pregunta, visita nuestro foro de ayuda para webmasters.
Escrito por Pierre Far, Analista de tendencias de webmasters, Publicado por Javier Pérez equipo de calidad de búsqueda