
En SEO técnico avanzado, un desafío común es la cantidad de páginas de bajo valor que existen en muchos sitios (ya sean ecommerce, medios, blogs, SaaS, etc.). Estas son páginas con contenido débil, duplicado, mal enlazado, sin tráfico orgánico o que no responden a ninguna intención de búsqueda clara. Si no se abordan, pueden lastrar el rendimiento general del sitio.
Investigaciones recientes muestran que 96,55% de todas las páginas no reciben tráfico orgánico de Google (124 SEO Statistics for 2024), lo que sugiere que la mayoría del contenido publicado no aporta valor SEO.
Además, Google ha implementado sistemas como la Helpful Content Update enfocados en detectar “contenido con poco o ningún valor añadido”. Si la mayor parte de un sitio es poco útil, incluso el contenido de calidad puede verse afectado negativamente. Demasiadas páginas de baja calidad pueden provocar problemas de indexación a nivel de dominio y penalizaciones en algoritmos centrales.
¿Qué se considera una página de bajo valor (thin content)?
En el contexto SEO, una página de bajo valor es aquella que no aporta utilidad ni relevancia suficiente al usuario o al motor de búsqueda. Suelen presentar una o varias de estas características:
- Contenido débil o escaso: Texto muy corto o superficial que no cubre adecuadamente el tema. Google considera “thin content” aquel que no proporciona valor al visitante, ya sea por ser demasiado breve, superficial, duplicado, generado automáticamente o de baja calidad (What is thin content in SEO, and how to fix it? [13 simple tips]). Estas páginas típicamente no posicionan bien porque Google las identifica como poco útiles.
- Contenido duplicado o sin originalidad: Páginas cuyo contenido es idéntico o muy similar a otras (dentro del mismo sitio o de terceros), aportando cero novedad. También entra aquí el contenido canibalizado – múltiples páginas de tu sitio compitiendo por la misma palabra clave con contenidos parecidos.
- Páginas huérfanas o mal enlazadas internamente: URLs que no están integradas en la arquitectura del sitio (ninguna otra página enlaza a ellas, o muy pocos enlaces internos). Esto suele indicar que no son importantes en el sitio y, por tanto, pueden quedar fuera del radar de los usuarios y de Google.
- Sin tráfico orgánico ni intención de búsqueda definida: Si una página no recibe visitas orgánicas (ni de otros canales) y al analizarla no parece responder a ninguna consulta real de usuarios, seguramente es de bajo valor. Puede que su contenido no tenga demanda de búsqueda, o no esté optimizado a la intención del usuario.
Estas páginas son problemáticas no solo porque no aportan tráfico, sino porque pueden llegar a afectar al SEO global. Google evalúa la calidad global del sitio: un porcentaje alto de contenido “inútil” podría dañar tu reputación a ojos de los algoritmos (por ejemplo, el Helpful Content System aplica un clasificador site-wide que devalúa sitios con abundante contenido poco útil.
John Mueller de Google ha aconsejado que, ante contenido antiguo o de baja calidad, “lo mejores o lo elimines” (What to Do About Old Low Quality Content).
A continuación, veremos cómo identificar estas páginas problemáticas utilizando diferentes herramientas técnicas.
Identificación técnica de páginas de bajo valor
El primer paso es detectar qué páginas de tu sitio encajan en las categorías anteriores. Para ello, combinaremos varias herramientas SEO:
- Google Search Console (GSC) y GA4: Para medir rendimiento orgánico y de usuario (clics, impresiones, visitas, engagement).
- Screaming Frog SEO Spider: Para auditar el sitio a nivel de contenido e infraestructura (longitud de contenido, duplicados, enlaces internos).
- Ahrefs y Semrush: Para obtener datos externos (tráfico orgánico estimado, backlinks, palabras clave posicionadas) y auditorías de contenido.
Usando estas herramientas de forma complementaria, podemos localizar contenido débil, duplicado, huérfano o irrelevante. Veamos métodos concretos para cada criterio:
Contenido débil o escaso (thin content)
Screaming Frog
Facilita mucho identificar páginas con poco contenido. Al rastrear tu sitio con esta herramienta, puedes ir a la pestaña Content (Contenido) y filtrar por “Low Content Pages”. De forma predeterminada, Screaming Frog marca así a las páginas con menos de 200 palabras, umbral que puedes ajustar según tus necesidades (Using Screaming Frog to Improve Programmatic SEO Content – Screaming Frog). Por ejemplo, podrías configurarlo a <300 palabras si tu sector requiere mayor contenido. También puedes simplemente ordenar por la columna Word Count para ver de un vistazo qué URLs tienen muy pocas palabras.

Como referencia general, páginas con menos de 200-300 palabras suelen considerarse de poco valor a menos que el contenido sea extremadamente conciso pero útil (casos raros). En sitios de comercio electrónico, por ejemplo, es común hallar fichas de producto con descripciones muy breves. En sitios de noticias, podrían ser notas de agencia casi sin texto original. Estas páginas “thin” se priorizan para mejorar.
Semrush Site Audit
También detecta este problema: en sus informes de auditoría técnica aparece un apartado de Contenido poco textuoso o Low Text-to-HTML Ratio, alertando de páginas con muy pocas palabras. Ahrefs Site Audit igualmente permite configurar una regla para señalar páginas bajo cierto número de palabras.
Google Search Console
Puede ayudarte indirectamente: si ves páginas con impresiones pero CTR muy bajo y contenidos mínimos, probablemente los usuarios las encuentren poco útiles en los resultados. No obstante, GSC no informa de la longitud del contenido, por lo que es mejor usar una herramienta de rastreo para eso.
Contenido duplicado o canibalizado
El contenido duplicado puede ser exacto o cercano (near duplicate). Screaming Frog posee filtros en la sección Content para ambos casos: Exact Duplicates y Near Duplicates. Para usarlos, primero asegúrate de activar en la configuración que analice el contenido textual (Config > Content > Área de contenido, para que se centre en la parte principal del texto). Luego, al rastrear, verás en Content > Duplicate alguna métrica como “No. Near Duplicates” indicando cuántas páginas son muy similares a esa URL. Si la herramienta encuentra varias páginas casi idénticas, es señal de que deberías consolidarlas en una sola o diferenciarlas mejor.
Algunos ejemplos comunes de duplicados internos: versiones imprimibles, páginas de categoría con filtros distintos pero mismo listado, o artículos muy similares sobre el mismo tema. También títulos o meta-descripciones duplicados pueden indicar contenido repetido (Screaming Frog y las auditorías de Semrush/Ahrefs avisan de títulos duplicados). Ahrefs Site Audit tiene un chequeo de HTML duplicates y Semrush muestra Duplicate content en su reporte, lo cual te da una idea rápida.
Para detectar canibalización de keywords (múltiples páginas atacando la misma intención de búsqueda), Ahrefs y Semrush son útiles: en herramientas como Ahrefs Organic Keywords o Semrush Position Tracking puedes ver si varias URLs de tu dominio rankean para la misma consulta. O usando la funcionalidad Cannibalization report (por ejemplo, Semrush tiene un informe de canibalización dentro de Position Tracking). Si identificas dos o más páginas compitiendo por la misma keyword y ninguna lo hace bien, probablemente tengas contenido duplicado o dividido que conviene fusionar.
Google Search Console también ayuda: filtra la pestaña de rendimiento por una consulta específica y mira si muestra múltiples URLs de tu sitio recibiendo impresiones por esa misma búsqueda. Si es así, podrías tener canibalización.
Ejemplo (duplicados): Supongamos que tu blog SaaS tiene dos posts similares sobre “cómo hacer backup de datos”. Screaming Frog los detecta como near-duplicates con 90% similitud. Además, Semrush te muestra que ambas páginas aparecen en resultados de backup de datos pero en posiciones 50+. La acción sería consolidar ese contenido en uno más completo (usa 301 redirect de la duplicada a la principal, o combínalas y elimina una). Más adelante veremos cómo ChatGPT puede asistir en esta fusión de contenidos redundantes.
Páginas huérfanas o mal enlazadas
Las páginas huérfanas son aquellas que no reciben enlaces internos desde ninguna otra página del sitio (o reciben muy pocos, ocultándolas de la navegación normal). Estas páginas pasan inadvertidas para usuarios y hasta para Googlebot si no están en el sitemap. Tener contenido valioso desaprovechado por falta de enlaces internos es un desperdicio; pero si además ese contenido es de baja calidad, empeora la situación al gastar crawl budget sin aportar nada.
Para encontrarlas, Screaming Frog ofrece un reporte de Orphan Pages si le proporcionas una fuente de URLs conocidas (por ejemplo, conectando la API de Google Analytics o Search Console, o cargando un listado de URLs desde el sitemap) además del rastreo normal. El proceso sería: rastreas el sitio con SF, y adicionalmente le indicas en Mode > List las URLs de GSC (por ejemplo, exportadas de “Páginas indexadas”) para que las compare. El resultado destacará URLs que estaban indexadas o en Analytics pero que no se encontraron navegando los enlaces internos – es decir, potencialmente huérfanas. Alternativamente, Google Search Console en el informe de Cobertura puede listar páginas “Descubiertas – actualmente no indexadas” que a veces son huérfanas descubiertas vía sitemap o enlaces externos.
Otra táctica sencilla: en GSC, compara el número de Enlaces internos que reciben tus páginas (informe de Enlaces > Internos). Si ves páginas importantes con 0 enlaces internos, claramente son huérfanas. Pero si son páginas irrelevantes y además huérfanas, seguramente califican como bajo valor.
Ahrefs y Semrush no detectan huérfanas directamente porque no conocen tu estructura interna, pero Semrush Site Audit sí puede marcar páginas aisladas (cuando le das el sitemap, identifica URLs no encontradas mediante crawling interno).
Ejemplo: Un e-commerce puede tener páginas de productos descatalogados aún accesibles vía URL directa pero ya quitadas de categorías – huérfanas. Si ese producto ya no se vende y la página está huérfana, deberías removerla o redirigirla. Si por el contrario ves que es un producto aún vigente pero quedó huérfano por un error, enlázaselo desde alguna categoría o página relacionada para recuperarlo.
Páginas sin tráfico orgánico (ni intención de búsqueda)
Por último, identifica aquellas páginas que no atraen tráfico y analiza por qué. Aquí Google Search Console y Google Analytics (GA4) son clave:
- En GSC > Rendimiento > Páginas, ordena por clics o impresiones para encontrar las páginas que tienen 0 clics en el periodo seleccionado (por ejemplo, últimos 6-12 meses). También fíjate en las que tienen impresiones muy bajas (cerca de 0), señal de que apenas aparecen en resultados.
- En GA4 (Informe de Engagement > Páginas y pantallas), filtra el período largo (un año) y ordena por vistas de página. Las URLs con prácticamente 0 vistas de cualquier canal son contenido muerto en tu sitio.
Una vez listadas, pregúntate: ¿Por qué no tienen tráfico? Algunas posibles razones técnicas: página no indexada (verifícalo en GSC Cobertura o con site:URL en Google), bloqueada por robots.txt, o recién publicada (darle tiempo). Pero si no es eso, suele deberse a falta de valor SEO.
Aquí es útil usar Ahrefs/Semrush para investigar cada página sin tráfico:
- ¿Tiene palabras clave rankeando? En Ahrefs, utiliza Site Explorer > Top Pages para tu dominio y localiza la URL; verás si rankea para alguna keyword en el top 100. Si no rankea para nada, puede que el contenido no esté optimizado para ninguna consulta relevante. En Semrush, similar: consulta la herramienta de Organic Research o Pages.
- ¿Tiene volumen de búsqueda el tema? Quizá la página aborda un tema que nadie busca. Con la keyword principal en Keywords Explorer (Ahrefs) o Keyword Overview (Semrush), comprueba si hay volumen. Si es 0 búsquedas mensuales, o la página no tiene una keyword clara, quizá carece de intención de búsqueda definida.
- Autoridad y enlaces: Revisa en Ahrefs/Semrush si esa URL tiene backlinks externos. Una página sin ningún backlink ni enlaces internos importantes tendrá difícil posicionamiento a menos que cubra un nicho sin competencia.
Intención de búsqueda no satisfecha: Aun si la keyword parece buena, tu contenido puede no encajar con lo que Google considera relevante. Por ejemplo, si la intención para “mejor smartphone 2025” es una lista comparativa y tu página es solo una ficha de producto, nunca rankeará bien. Ahrefs señala que no coincidir con la intención de búsqueda es un motivo frecuente de páginas sin tráfico. Puedes verificar la intención buscando tú mismo la keyword principal en Google: compara el tipo de resultados con tu página. Si no encajan, tendrás que reorientar el contenido.
Ejemplo: Supongamos un blog tiene un artículo “Lanzamiento versión 3.4.1 de nuestro software” que casi no recibió visitas. Con Ahrefs ves que no tiene keywords posicionadas y nadie busca ese tema específico. Concluyes que es de bajo valor SEO (quizá útil como noticia interna pero no para atraer tráfico). Podrías dejarlo sin indexar o fusionar esa info en otra página más relevante (como un changelog acumulado). Por otro lado, si encuentras una página con 0 clics pero que sí tenía algunas impresiones para ciertas búsquedas, vale la pena optimizarla para captar esas impresiones convirtiéndolas en clics.
Tabla comparativa de herramientas
Aspecto a detectar | Google Search Console | Screaming Frog | Ahrefs | Semrush |
---|---|---|---|---|
Contenido “thin” (poco texto) | ❌ No directo – (No informa de palabras, aunque bajas impresiones pueden sugerirlo) | ✔️ Sí – Filtra Low Content (< X palabras) (Using Screaming Frog) | ⚙️ Parcial – Via Site Audit (regla de word count) o Content Explorer (filtrar por <X palabras) | ✔️ Sí – Site Audit identifica páginas con poco texto |
Contenido duplicado interno | ❌ No – (No lo indica, salvo quizás en cobertura si hay duplicados con canonicals) | ✔️ Sí – Detecta duplicados exactos y cercanos (Ver más) | ⚙️ Parcial – Site Audit detecta duplicados de etiquetas (título/description) y contenido similar en HTML | ✔️ Sí – Site Audit reporta páginas con contenido duplicado (y canibalizaciones en Position Tracking) |
(✔️=Sí, ⚠️=Parcial, ❌=No aplica / muy limitado. ⚙️=Requiere configuración manual adicional.)
Cada herramienta aporta una pieza del rompecabezas. Por ejemplo: GSC te da la realidad de rendimiento, Screaming Frog las propiedades internas de cada página, Ahrefs/Semrush la perspectiva externa (competencia, links, volumen). Combinando todo, tendrás identificadas las páginas que necesitan atención.
Estrategias para optimizar páginas de bajo valor
Una vez detectadas las páginas problemáticas, tenemos que decidir la mejor acción para cada una. En términos generales, las opciones son:
- Eliminar o no indexar la página (content pruning) si realmente no aporta nada y no vale la pena mejorarla.
- Combinar o redirigir si su contenido está duplicado en otra página más útil.
- Mejorar y expandir el contenido para que pase de “bajo valor” a contenido útil y optimizado.
Si una página “no aporta tráfico, rankings ni enlaces y tampoco vale la pena mejorarla por falta de relevancia o potencial, mejor eliminarla”. Pero si “puede aportar valor si se mejora (o tiene ya algunos enlaces/rankings), entonces conviene mantenerla y optimizarla o unirla con otra mejor”
Aleyda Solis
Recuerda que una limpieza gradual es lo más seguro: Kevin Indig recomienda categorizar por lotes (por ejemplo: páginas sin tráfico ni enlaces en un lote, páginas sin tráfico pero con algunos enlaces en otro) y optimizar en fases, midiendo resultados entre cada fase (Content Pruning: a step-by-step guide to increase SEO performance). Así minimizas riesgos de eliminar o cambiar demasiado de golpe.
Pasemos entonces a las técnicas de optimización con ayuda de IA y otras mejoras puntuales.
Ampliación y enriquecimiento del contenido con IA
La solución principal para el thin content es obvia: añadir contenido valioso. Pero no se trata solo de escribir más por escribir – debe ser contenido relevante, original y que satisfaga la intención de búsqueda. Aquí, herramientas de Inteligencia Artificial como ChatGPT pueden ser grandes aliadas para generar borradores, obtener ideas de expansión y acelerar el proceso de creación, siempre bajo supervisión humana.
Algunos usos de ChatGPT (u otras IA generativas) para enriquecer contenido:
- Extender la cobertura de un tema: Puedes proporcionarle a ChatGPT tu texto existente y pedirle que lo amplíe con más detalles, ejemplos, casos de uso o secciones adicionales. Por ejemplo, darle un prompt del estilo:
Prompt: “Actúa como un redactor SEO experto. A continuación te doy el contenido actual de mi página sobre . Quiero que lo amplíes agregando al menos 3 párrafos con información adicional útil para el lector, incluyendo ejemplos prácticos y datos estadísticos si aplican. Mantén un tono profesional y técnico. Contenido:\n[Texto de la página]”.
Con un prompt bien dirigido, la IA podrá sugerir nuevos puntos a tratar. Es clave pedirle profundidad y no solo repetición. Asimismo, puedes indicarle que incorpore ciertas palabras clave relacionadas que detectaste que faltaban (por ejemplo, mediante análisis de la competencia con Ahrefs/Semrush). Asegúrate de revisar cualquier dato que entregue – la IA puede inventar información, así que verifica hechos y cifras. - Mejorar la cobertura de intención de búsqueda: Si identificaste que tu página no respondía bien a cierta intención, proporciona esa orientación en el prompt. Ejemplo: “Los usuarios que buscan ‘mejor lenguaje de programación 2025’ esperan comparativas. Reescribe y amplía este contenido para que incluya una comparativa entre opciones, pros y contras, y una recomendación final.” De esta forma, alineas el contenido a lo que el usuario y Google esperan ver (How Google’s Latest ‘Helpful Content System’ Update is Impacting SERPs | Amsive).
- Incorporar preguntas frecuentes (FAQ): Otra forma de enriquecer es agregar secciones de preguntas frecuentes relevantes. Puedes preguntarle a ChatGPT: “Genera 5 preguntas frecuentes con sus respuestas concisas sobre <tema de la página> que podrían interesar a quien lee este artículo.” Muchas veces sugerirá preguntas basadas en dudas comunes (incluso puede extraerlas de su entrenamiento sobre foros, etc.). Luego, valida que esas FAQ sean pertinentes y añádelas, lo cual también puede darte contenido candidato a rich snippets.
- Contenido multimodal o ejemplos de código: Si tu página es técnica, podrías pedirle a la IA fragmentos de código de ejemplo, diagramas ASCII, fórmulas, etc., para complementar el texto. O bien sugerir imágenes que podrías crear para ilustrar (aunque ChatGPT no genera imágenes directamente, puede describir qué gráficos serían útiles).
Importante: Aunque la IA acelera la redacción, no publiques el texto tal cual. Edita, ajusta el estilo a tu voz de marca, y sobre todo verifica la veracidad. Google valora la experiencia, experiencia, autoridad y confiabilidad (E-E-A-T) del contenido; un texto genérico de IA sin correcciones puede sonar correcto pero carecer de profundidad o tener errores factuales. Úsalo como base, pero agrega tu expertise. Por ejemplo, Lily Ray ha señalado que Google busca contenido “auténtico, original, escrito por personas para personas” (How Google’s Latest ‘Helpful Content System’ Update is Impacting SERPs | Amsive) – lo cual puedes lograr revisando y aportando insights únicos después de la ayuda de la IA.
Ejemplo práctico: Tienes una página de producto con solo 100 palabras. Decides ampliarla. Primero, investigas en Ahrefs qué buscan los usuarios en torno a ese producto (palabras clave relacionadas, preguntas comunes). Luego, en ChatGPT:
- Le envías la descripción actual y le pides: “Añade 2 párrafos destacando los beneficios del producto y cómo se compara con alternativas. Incluye al menos un ejemplo de caso de uso real.”
- Te entrega un texto ampliado. Tomas esas ideas, las combinas con información de tu equipo de producto (que la IA no conoce) y obtienes una descripción final de ~400 palabras muy rica, que ahora responde dudas y aporta valor.
- Para redondear, generas 2-3 FAQs con IA como describimos y las adjuntas.
El resultado: de una página escueta pasaste a una mucho más completa y útil, con altas probabilidades de mejorar su ranking y conversión.
Eliminación de duplicidades y consolidación de contenido redundante
Cuando has identificado páginas duplicadas o que canibalizan entre sí, la estrategia es unificarlas en una sola mejor página. Esto puede implicar mover contenido de una a otra, o crear una nueva combinando ambas, y luego configurar redirecciones 301 desde las antiguas a la versión consolidada.
La IA puede ayudar en este proceso de fusión de contenidos:
- Fusionar dos textos en uno coherente: Si tienes dos artículos similares, puedes pasar ambos textos a ChatGPT y solicitar: “Combina la siguiente información en un único artículo cohesivo. Elimina redundancias y organiza las ideas lógicamente. Texto A: […] Texto B: […].”. La IA producirá un borrador unificado, donde tú luego ajustas detalles, asegurándote de mantener los mejores elementos de cada uno. Esto ahorra bastante tiempo en reescritura manual.
- Eliminar contenido duplicado innecesario: En ocasiones la duplicación está dentro de la misma página (párrafos repetidos, info irrelevante copiada). Puedes usar prompts como: “Este texto contiene oraciones repetidas o muy similares. Identifícalas y propone una versión depurada del contenido sin repeticiones innecesarias: [texto]”. Así obtienes una versión más limpia.
- Comprobar consistencia tras la fusión: Una vez fusionado, puedes pedir a ChatGPT que revise si quedaron incoherencias. Ejemplo: “Revisa el siguiente artículo unificado por coherencia y flujo, y sugiere mejoras si algo no queda claro o hay información conflictiva: [nuevo texto]”.
Tras consolidar, no olvides implementar la redirección 301 de las URLs antiguas a la nueva para no perder ningún valor de enlaces entrantes y para que Google entienda que el contenido se ha movido. Esto también evita contenido duplicado (Google actualizará su índice a la nueva página única).
Además, actualiza los enlaces internos: si otras páginas enlazaban a las antiguas, corrige esos enlaces a la nueva URL consolidada. Herramientas como Screaming Frog te pueden listar dónde estaban enlazadas las páginas que eliminaste (buscando por URL antigua en el informe de Inlinks).
Mejora de la legibilidad y formato (UX content)
No subestimes el impacto de la legibilidad y la estructura en la percepción de calidad. A veces una página puede tener contenido suficiente, pero está mal presentado: párrafos gigantes, sin subtítulos, sin listas ni elementos visuales. Esto puede ocasionar que los usuarios reboten y consideren la página de poco valor aunque la información esté ahí.
ChatGPT también puede ayudar a refinar la redacción y hacerla más amigable:
- Reescritura para mayor claridad: Si identificas contenido confuso o muy denso, pídele a la IA: “Reescribe el siguiente párrafo en un lenguaje más claro y conciso, pero manteniendo un tono profesional: [párrafo]”. Obtendrás una versión más digerible. Por supuesto, verifica que no se pierda precisión técnica en el proceso.
- Dividir en listas o pasos: Un texto que describe un procedimiento se puede mejorar convirtiéndolo en lista de pasos. Por ejemplo: “Convierte este texto en una lista numerada de pasos a seguir para , usando verbos de acción al inicio de cada punto.”. Esto automáticamente mejora la estructuración.
- Añadir subtítulos (headings): Pide sugerencias de headings: “Sugiere subtítulos descriptivos para las diferentes secciones en este texto, para dividirlo y facilitar su lectura.”. Luego aplica esos subtítulos (H2, H3, etc.) en tu contenido final.
- Tono y terminología adecuada: Si la página tiene un tono inadecuado (muy informal en un sitio académico, por ejemplo), indica a la IA que lo ajuste: “Adapta el siguiente texto a un tono más formal y técnico, apropiado para un público de ingenieros, sin cambiar el contenido esencial.”.
Un contenido bien estructurado no solo retiene mejor al usuario, sino que facilita a Google la extracción de fragmentos (featured snippets) y la comprensión del tema (mediante jerarquía de headings). A nivel SEO técnico, mejorar métricas de usuario (tiempo en página, pogo-sticking) puede influir positivamente en rankings, especialmente tras actualizaciones enfocadas en experiencia.
Sugerencia de enlaces internos relevantes
El enlazado interno es un factor SEO clave que a veces se deja de lado. Una página de bajo valor puede ganar importancia si recibe enlaces internos estratégicos desde otras páginas relevantes del sitio, especialmente con buen anchor text. Además, los enlaces internos ayudan a distribuir el PageRank interno y a que Google descubra y reevalúe contenido actualizado.
¿Cómo usar IA aquí? ChatGPT puede ayudar a brainstorming de enlaces internos:
- Encontrar contextos de enlace: Dale a ChatGPT un resumen del contenido de la página mejorada y una lista de otros temas o secciones de tu web. Luego pregunta: “¿Sobre qué otros temas relacionados habla este texto y que podrían enlazarse a otras páginas de nuestro sitio? La web tiene secciones de: [lista de secciones/temas]. Indica posibles frases del texto que podrían convertirse en enlaces hacia esas secciones.”. La IA analizará el contenido y podría responder, por ejemplo: “Menciona ‘optimización móvil’, eso podría enlazar a la guía sobre Mobile SEO de tu blog”.
- Sugerir anchor text optimizados: Puedes incluso darle el título o keyword de otra página y pedirle que encuentre dónde encajaría un enlace a ella. Ejemplo: “Tenemos una página sobre ‘Velocidad de carga’. Sugiere una oración o anchor text en este texto donde podamos enlazar hacia esa página, de forma natural.”. Te devolverá una idea de cómo incluir ese enlace internamente.
Obviamente, la IA no conoce la estructura real de tu sitio a menos que se la proporciones, así que conviene alimentarla con la lista de páginas o secciones importantes. Otra opción es primero pedirle que identifique los temas clave mencionados en la página, luego tú manualmente decides qué páginas del sitio corresponden a esos temas y añades los enlaces.
Finalmente, más allá de IA, utiliza Screaming Frog o GSC Enlaces internos para verificar que la página mejorada ahora recibe suficientes enlaces. Idealmente, tras las mejoras, enlázala desde menús, hubs de contenido o artículos relacionados. No olvides también enlazar desde la página optimizada hacia otras relevantes (enlaces salientes internos), para crear un entramado sólido.
Automatización con Google Sheets y APIs
Cuando se gestionan sitios con muchas páginas (miles o más), es inviable hacer este análisis y mejora uno por uno manualmente. Ahí es donde la automatización y el uso inteligente de hojas de cálculo y APIs ahorran muchísimo tiempo.
Integración de datos: Una buena práctica es construir una Google Sheet de auditoría de contenido que consolide datos de todas las fuentes para cada URL. Por ejemplo, columnas como: URL, nº de palabras (de Screaming Frog), nº de enlaces internos (SF o GSC), clics 12m (GSC), impresiones 12m (GSC), backlinks externos (Ahrefs), palabras clave top (Ahrefs/Semrush), etc. Con esto en un solo lugar, puedes aplicar fórmulas para marcar páginas que cumplan ciertas condiciones de bajo valor.
- Ejemplo fórmula: Supón que la columna A es “Palabras” y B “Clics 12m”. Podrías usar en Google Sheets: =SI(Y(A2<300; B2=0); «Thin – Sin tráfico»; «»). Esa fórmula te etiqueta automáticamente las páginas con menos de 300 palabras y 0 clics en el último año, indicando que son thin content sin tráfico. Puedes crear reglas más complejas combinando también si tienen Imp. > 0 (impresiones sin clics) para diferenciar si ni siquiera aparecen en búsquedas.
- Google Search Console API: En lugar de exportar manualmente los datos de rendimiento, puedes utilizar el add-on Search Analytics for Sheets (un complemento oficial) que extrae datos de la API de GSC directamente a tu hoja. Con una consulta puedes obtener la lista de todas las páginas con sus clics, impresiones, CTR y posición promedio en un rango de fechas. Esto se actualiza en segundos cuando quieras refrescar datos.
- Screaming Frog exports/API: Screaming Frog permite exportar la información de la crawl a CSV o incluso conectarse vía API (en la versión paga) a Sheets o otros sistemas. Lo típico es exportar un CSV con todas las URLs y sus métricas (palabras, inlinks, status codes, título, meta robots, etc.) y luego importarlo en Sheets como una pestaña. También puedes usar Fórmulas IMPORTXML/IMPORTHTML de Google Sheets para extraer datos simples (por ejemplo, el título o H1 de una URL) en casos puntuales, aunque para un gran volumen es mejor el CSV.
- Ahrefs/Semrush API o Bulk data: Si tienes acceso, podrías usar la API de Ahrefs o Semrush para obtener número de backlinks o tráfico orgánico por URL en lote. Alternativamente, exporta desde Ahrefs Top Pages un CSV con todas las URLs y tráfico estimado, e impórtalo en Sheets para cruzarlo.
- Combinación y filtros: Una vez que tengas todo en Sheets, aprovecha filtros y formato condicional. Por ejemplo, resalta en rojo las filas donde “Palabras < 300” y “Clics = 0”. Resalta en amarillo donde “Palabras < 300” pero “Clics > 0” (páginas thin pero que ranquean algo, esas tienen potencial para mejora). Filtra por “Duplicate title” (si importaste ese dato) para ver posibles duplicados.
- Priorización semi-automática: Puedes crear una columna “Acción recomendada” con una fórmula que asigne “Mejorar”, “Fusionar”, “Eliminar” según criterios. Por ejemplo: si Clics>0 OR backlinks>0, entonces “Mejorar” (porque algo de valor tienen). Si Clics=0, backlinks=0, palabras<200 => “Eliminar/Noindex”. Si DuplicateOf<>»» (si importaste indicador de duplicado) => “Fusionar con [DuplicateOf]”. Estas reglas dependerán de tu estrategia, pero ayudan a segmentar el plan de acción.
El resultado de esta automatización es un inventario de contenido auditado. Desde ahí, puedes abordar mejoras en bloque: quizá primero todas las de “Mejorar”, luego las de “Fusionar”, etc.
Automatizando la mejora con IA: Otro nivel de automatización es integrar la IA en tus flujos. Por ejemplo, usar la API de OpenAI dentro de Google Sheets (vía Apps Script) para generar sugerencias automáticamente. Un caso práctico: escribir un Apps Script que tome cada URL marcada como “Thin” y envíe el contenido actual a la API de ChatGPT con un prompt de expansión, devolviendo sugerencias en otra columna. Esto requiere programación y validar costos de API, pero es factible en un entorno de hoja de cálculo para acelerar la generación de borradores de mejora. Sin embargo, siempre revisa manualmente antes de publicar.
Menos es más
Transformar páginas de bajo valor en activos SEO rentables es un proceso continuo y multifacético. Implica diagnosticar con precisión (utilizando herramientas como GSC, Screaming Frog, Ahrefs, Semrush, GA4), tomar decisiones informadas (mejorar vs eliminar) y ejecutar mejoras de contenido, enlazado y experiencia. La incorporación de IA como ChatGPT en el flujo de trabajo puede agilizar la creación y optimización de contenido, pero su uso debe ser guiado por la estrategia del SEO y la supervisión humana para asegurar calidad y veracidad. Como señala Google, quieren “contenido útil, de personas para personas” , por lo que la IA debe servirnos como asistente, no como sustituto del expertise.
Al abordar sistemáticamente el contenido débil y duplicado, no solo mejoras esas páginas específicas, sino que elevas la calidad global del sitio. Esto puede traducirse en mejores posiciones y más tráfico, ya que eliminas el “ruido” que impide brillar a tu buen contenido. Estudios muestran que eliminar o mejorar contenido pobre puede liberar crawl budget y enfoque de Google hacia tus páginas importantes. En otras palabras, menos es más: es preferible tener 100 páginas excelentes que 1000 mediocres.
En el competitivo panorama de 2025, con constantes core updates y algoritmos evaluando utilidad, invertir en reciclar y potenciar tu contenido existente es tan crucial como publicar cosas nuevas. Sigue los pasos aquí descritos –identificación, análisis, mejora con IA, y automatización– y podrás convertir un sitio cargado de páginas de poco valor en una web optimizada donde cada URL sume a tu estrategia SEO. Como metáfora, estarás podando el jardín: quitando la maleza para que las plantas fuertes crezcan mejor. El resultado final será un sitio más sano, útil para los usuarios y premiado por los motores de búsqueda.