Cómo Google indexa contenido JS en 2024

SEO

Recientemente se ha publicado un estudio titulado «How Google handles JavaScript throughout the indexing process«, fruto de una colaboración entre MERJ, una consultoría SEO especialistas en ingeniería de datos, y Vercel, una plataforma innovadora para desarrolladores de frontend. En este artículo, los equipos de MERJ y Vercel realizaron una investigación exhaustiva para desmitificar cómo Google maneja la renderización y el indexado de contenido generado mediante JavaScript.

El objetivo principal del estudio fue poner a prueba las capacidades actuales de Google para renderizar e indexar contenido basado en JavaScript, algo que ha generado mucha incertidumbre en la comunidad de SEO durante años. Mediante el análisis de más de 100,000 interacciones de Googlebot con diversos sitios web, los autores buscaron validar o refutar varias creencias comunes sobre cómo Google trata las páginas web construidas con tecnologías modernas de JavaScript.

proceso indexado de google
Proceso de indexado de Google

Por las implicaciones tan importantes que estos resultados tienen para el trabajo de un SEO, he preparado este artículo. En el te explico los mitos que han sido destruídos con este estudio, y lo que como especialistas SEO podemos aprender de todo esto.

La evolución de la renderización de JavaScript por parte de Google

A lo largo de los años, las capacidades de Google en cuanto a la renderización e indexación de JavaScript han mejorado drásticamente. Inicialmente, Googlebot tenía dificultades para manejar contenido en JS, lo que llevó a que los especialistas en SEO recomendaran HTML estático o renderizado del lado del servidor (SSR). Sin embargo, hoy en día, Google utiliza un renderizador basado en Chromium actualizado, lo que le permite rastrear, renderizar e indexar eficazmente incluso los sitios más complejos impulsados por JavaScript.

Lo más relevante del estudio es que han probado con hechos que Google dedica un intervalo de tiempo flexible, seguramente adaptable según la relevancia de la página/sitio, a renderizar el contenido. Este hecho es crítico para el SEO, ya que aunque ya no haga falta recomendar crear los sitios con contenido estático, hay que optimizar al máximo la carga para que no se agote ese tiempo sin que Google haya completado la renderización, porque entonces algunos elementos críticos para el SEO podrían quedar fuera.

Mitos comunes desmentidos

«Google no puede renderizar contenido JavaScript»

Uno de los mitos más persistentes es que Google no puede renderizar contenido JavaScript de manera efectiva. La investigación reciente de MERJ y Vercel ha demostrado que Google puede renderizar e indexar completamente incluso contenido cargado dinámicamente y transmitido en JS. Esto desacredita la idea de que los especialistas en SEO necesitan evitar o modificar en gran medida frameworks JS como React o Next.js para asegurar un buen rendimiento SEO.

De todos modos, aunque podemos usar frameworks JS con tranquilidad, hay que garantizar que el contenido crítico y los elementos SEO (como meta tags y datos estructurados) estén disponibles en la carga inicial de HTML. Esto garantiza que, incluso si ocurren problemas de renderización, las señales SEO más importantes sigan siendo accesibles para Google.

«Google trata las páginas JavaScript de manera diferente»

Otro mito sugiere que Googlebot maneja las páginas pesadas en JS de manera diferente a las páginas estáticas, lo que podría llevar a una menor clasificación o a una indexación más lenta. Sin embargo, el estudio no encontró diferencias fundamentales en cómo Google procesa las páginas con mucho JS en comparación con las páginas HTML estáticas.

Lo que es altamente recomendable es que nos enfoquemos en optimizar la velocidad de carga de la página. Por desgracia las optimizaciones de WPO son una asignatura pendiente en la comunidad SEO, así que toca ponerse las pilas para marcar la diferencia.

«La cola de renderización y el tiempo impactan significativamente el SEO»

La preocupación de que las páginas pesadas en JS enfrenten retrasos significativos en la renderización e indexación debido a una cola de renderización es solo parcialmente cierta. Aunque algunas páginas pueden experimentar retrasos, la mayoría de las páginas se renderizan en minutos, no en horas o días.

Para sitios grandes o con actualizaciones frecuentes, sí que es aconsejable hacer un renderizado del lado del servidor (SSR) o una generación estática de sitios (SSG) para páginas críticas, minimizando así posibles retrasos en la renderización. Esto, por supuesto, además de la optimización WPO del JS que se renderice del lado del cliente.

«Los sitios con mucho JavaScript tienen un ‘descubrimiento’ de páginas más lento»

El temor de que los sitios cargados con mucho JS sufran un descubrimiento de páginas más lento por parte de Google también ha sido desmentido. Google descubre e indexa con efectividad los enlaces en contenido renderizado en JS, incluyendo enlaces dentro de frameworks de renderizado del lado del cliente (CSR).

A nivel de SEO lo que claramente favorece la indexación es tener una estructura de enlaces clara, jerarquizada y accesible tanto en el HTML inicial como en el contenido renderizado en JS. Un sitemap actualizado y una categorización expresada con Breadcrumbs puede guiar el comportamiento de rastreo de Google y compensar cualquier pequeño retraso en la renderización de JS.

En conclusión, si eres SEO:

  1. Aprovecha los frameworks actuales de JavaScript como React o Next.js. Google puede manejarlos, pero asegúrate de que el contenido crítico sea renderizado del lado del servidor o pre-renderizado para un rendimiento SEO óptimo.
  2. La velocidad de carga sigue siendo un factor crucial de clasificación. Optimiza tu JS para que se cargue de manera eficiente y evita bloquear recursos en tu archivo robots.txt. Las Core Web Vitals de Google deben guiar tus esfuerzos de optimización.
  3. Usa herramientas como el URL Inspection Tool de Google Search Console para verificar cómo Googlebot ve tus páginas. Revisa regularmente las estadísticas de rastreo para asegurarte de que tu estrategia de renderización no esté causando problemas inesperados.
  4. Para sitios grandes, gestionar el crawl budget es crucial. Minimiza el JS innecesario para mejorar la eficiencia de renderización y asegúrate de que más de tus páginas sean rastreadas e indexadas.
  5. Un sitemap actualizado puede mitigar los retrasos en el descubrimiento, especialmente para contenido generado dinámicamente.

Para obtener más orientación detallada, consulta la guía oficial de SEO para JavaScript de Google y la documentación de Core Web Vitals, que proporciona información completa sobre cómo estos aspectos afectan los rankings de búsqueda.

Daniel Pajuelo
Daniel Pajuelo es ingeniero informático y SEO Senior, actualmente trabajando en Guruwalk e impartiendo clases en BIG School (antes BIGSEO Academy). Ver más
Categorías SEO

Continua leyendo

ChatGPT para Keyword Research

Descubre cómo combinar el poder de la IA con herramientas tradicionales como Semrush y Ahrefs para descubrir oportunidades SEO únicas. Con ejemplos de prompts y casos reales.

Cómo encontrar enlaces rotos con Python

En este artículo, te explico cómo utilizar scripts Python para analizar el SEO y detectar enlaces rotos en tu sitio web. ¡Vamos al grano!

Cómo encontrar los Backlinks de un sitio con Python

En este artículo, te explico cómo encontrar los backlinks existentes y distinguir su calidad, diferenciando entre enlaces dofollow y nofollow utilizando código Python.