|
Envío #16: La calidad vista por Google desde 2017 hasta la actualidad
Hola amigo/a del SEO,
Muchos virus en el ambiente y me ha dejado fuera de juego una gripe durante semanas.
Vuelvo a la carga con el envío de esta newsletter que se va a centrar en hablar de 2 temas principales:
- La evolución de los criterios de calidad de Google, en los últimos años
- La pérdida de tráfico de Hubspot y qué podemos aprender de ello
En siguientes envíos, intentaré añadir más noticias a modo resumen mensual, que quizás puede ayudarte como lector a priorizar lo que va ocurriendo en el sector SEO mes a mes.
Por el momento, ¡disfruta la lectura de este envío!
Nos leemos
MJ
|
|
Quality Guidelines
Así han evolucionado los criterios de Google respecto a Calidad
El caso Husbpot
¿Qué aprender de la pérdida de tráfico del blog de Hubspot?
|
|
|
|
|
|
¿Quieres patrocinar esta Newsletter?
Consultame y aparece destacado en este espacio, con una descripción, tu logo y un enlace a tu web
|
Está en tu mano :)
|
|
|
Quality Guidelines
Así han evolucionado los criterios de Google respecto a Calidad
Aquí va un resumen después de analizar los documentos de Quality Raters Guidelines publicados desde 2017 hasta enero de 2025, para enfatizar lo que han ido añadiendo, quitando o enfatizando.
En suma, las QRG de 2017 a 2025 muestran una tendencia clara: Google quiere asegurarse de que el usuario encuentre contenido confiable, con creadores transparentes y con un propósito genuinamente beneficioso, adaptándose, al mismo tiempo, a las nuevas tecnologías y formatos que van surgiendo (especialmente IA y experiencias interactivas).
La evolución concreta de los distintas áreas temáticas, comprenden los siguientes hitos:
-
De E-A-T a E-E-A-T:
- En 2017, ya se destacaba la importancia de la pericia (Expertise), autoridad (Authoritativeness) y confiabilidad (Trustworthiness).
- Con el paso de los años, se fue afinando la definición de E-A-T hasta llegar a 2022 con la inclusión de la experiencia (Experience). Esto refleja que Google cada vez valora más la evidencia de uso real, reseñas auténticas y testimonios en primera persona.
-
YMYL como foco creciente:
- Desde 2017, Google enfatizó que el contenido relacionado con la salud, las finanzas o temas jurídicos se considera de alto riesgo.
- A lo largo de las versiones, los ejemplos y la definición de YMYL se expandieron, subrayando la responsabilidad de ofrecer información rigurosa.
-
Beneficial Purpose y la intención del usuario:
- Aparece de forma clara en 2017, pero cada vez cobra más relevancia. Google enfatiza que el contenido debe “beneficiar al usuario”, y si no lo hace (o lo engaña), será clasificado como de muy baja calidad.
- Con los años, esto se vuelve un pilar esencial: un contenido puede tener buena ortografía y diseño, pero si su objetivo es manipular o no aporta nada, no sirve.
-
Transparencia del autor y reputación:
- Desde 2018–2019 se le dio más peso a la investigación de la reputación, usando fuentes externas (noticias, foros, reseñas).
- Progresivamente se volvió obligatorio para los raters chequear quién está detrás del contenido y su historial.
-
Contenido engañoso y desinformación:
- A raíz del aumento de fake news (sobre todo tras 2016–2017), en 2019 y 2020 se introducen apartados específicos para la detección de contenido malintencionado o engañoso.
- En versiones recientes, sobre todo 2023 y 2025, se habla de la detección de manipulación a gran escala (incluida la posible intervención de IA).
-
Adaptación al creciente uso de IA:
- Aunque en 2020–2021 ya se contemplaba la automatización de contenido, no es hasta 2022–2023 que se evidencia más interés en cómo la IA puede generar texto.
- Para 2024–2025, las guías incluyen directrices robustas para diferenciar contenido humano de IA o evaluar la fiabilidad de contenido sintético.
-
Énfasis en la experiencia de usuario (UX):
- De manera transversal, cada año se refuerzan los criterios sobre la usabilidad: publicidad intrusiva, diseños confusos, pop-ups en exceso, etc.
- Google va afinando cómo deben evaluar los raters elementos de layout, interactividad y accesibilidad.
-
Expansión a nuevos formatos:
- Con el paso del tiempo, se pasa de enfocarse en páginas estáticas de texto a incluir multimedia (podcasts, vídeos, streamings), hasta llegar a realidades inmersivas (AR/VR) en las últimas versiones.
Como conclusiones finales:
- Google mantiene los mismos pilares pero los detalla más: La base de las QRG no cambia radicalmente; sin embargo, cada versión añade matices y ejemplos concretos que ayudan a los raters a entender mejor la intención y la confiabilidad de un sitio.
- La IA como protagonista creciente: A partir de 2022 se empieza a hablar con más fuerza de la generación automatizada de contenidos y la necesidad de evaluar su calidad y veracidad. Para 2025, se vuelve un eje central.
- El rol de “la experiencia”: Con la adición de la primera “E” de Experience (en E-E-A-T), Google subraya que la vivencia real del autor o la procedencia directa de la información puede marcar la diferencia, especialmente en reseñas, tutoriales, opiniones médicas, etc.
- La “confianza” (Trust) como núcleo: En las versiones más recientes, Google hace ver que todos los demás factores (experiencia, expertise, autoridad) giran en torno a la confianza. Si no hay confianza, la página se considera de baja calidad aunque tenga aparente “experiencia”.
- Más precisión en YMYL: Desde 2017, Google recalcó la relevancia de este tipo de contenidos, pero entre 2019 y 2025 la definición se ha ido afinando para cubrir nuevas áreas (criptomonedas, NFT, salud mental, etc.).
Este sería el resumen visual de los términos de 2 palabras que. más se repiten en cada versión de los documentos :) ¿ves lo mismo que yo? USER INTENT, es lo que siempre encabeza el documento, año a año
|
|
|
El caso Hubspot
¿Qué aprender del caso Hubspot?
¿Qué ha podido pasar?
Lo que se puede concluir con estos análisis del sector, es que hay una afectación que toca de lleno a los contenidos. Por ejemplo, se sospecha que puede que hayan generado contenido poco valioso o repetitivo, que después de los años, han ido acumulado mucho contenido obsoleto o no actualizado, incluso canibalizando entre múltiples artículos sobre temas similares, compitiendo entre sí.
También se destaca otro hecho importante respecto a la intención de búsqueda: muchos contenidos quizás no responden a la intención actual ya que el usuario busca información más específica, fresca y práctica. Incluso, se salen de la temática troncal del sitio, así que tanto la adquisición de ese tráfico como su pérdida, ¿pasará realmente factura en la cuenta de resultados?
Esto puede estar relacionado a que, con los años, han ido pasando distintos equipos y han cambiado de estrategia en distintos momentos del tiempo, quizás por momentos se ha priorizado la cantidad sobre la calidad.
Por otro lado, un proyecto tan longevo como Hubspot nos habla también, indirectamente, de cómo ha ido evolucionando y creciendo el sector, la competencia cada vez mayor y con más capacidad de presentar batalla, sin contar la evolución también de las SERPs de Google y sus formatos, caldo de cultivo para mayor competitividad.
Por último, algo llamativo y que tiene todo el sentido del mundo, aunque la autoridad del dominio sigue siendo relevante y Hubspot es de los proyectos con mayor autoridad, ya no es suficiente por sí misma para garantizar rankings como los que tenían hasta ahora.
Enlaces de interés:
¿Qué habría que hacer para arreglarlo?
Sinceramente no es una pregunta que deba responder yo y ni siquiera estoy para alimentar las especulaciones ni para “demostrar conocimiento” desde fuera y sin tener la mínima idea de los datos reales de tráfico, y sobre todo ventas, que manejan.
Lo que me genera reflexión es lo siguiente:
- 1. Determinar el grado de importancia de la caída de tráfico del blog, sería el punto clave de este proyecto, porque si la afectación en negocio es limitada, baja o inexistente, ya tendríamos mucho ganado respecto a a las acciones a tomar.
- 2. Una cosa que seguro que es necesaria es revisar procesos y estrategia a seguir a partir de ahora, para evitar problemáticas similares en un futuro, que parece más un aspecto reputacional que el daño real que ha podido causar en la cuenta de resultados.
- 3. Si quisierámos jugar a auditar el contenido y establecer unb plan de limpieza, debemos ser conscientes de que las herramientas como SISTRIX o Ahrefs, marcan entre 7.000 y 15.000 urls recibiendo tráfico orgánico o rankings
- 4. Los plazos para trabajar con tantas miles de páginas, hay que tenerlos claros, aunque la gran ventaja de Hubspot es que cuenta con equipos y recursos siendo uno de los líderes de su sector.
A donde quiero ir a parar es que hasta una gran marca como Hubspot, si quisiera arremangarse y limpiar todo lo que se ha ido acumulando debajo de la alfombra, no le bastaría solamente con eliminar contenidos irrelevantes para su temática, tendría que contar con un análisis exhaustivo, un plan bien armado y por supuesto con recursos, tiempo y constancia de ejecución.
El principal aprendizaje: Del análisis profundo y el esfuerzo constante no se puede librar nadie que quiera recuperarse de un Update. Ni siquiera Hubspot.
|
|
|
¡Nos vemos el próximo mes!
|
|
Sígueme en Twitter
Comparte esta newsletter
Patrocina esta newsletter
|
|
|
|