Madrid, 10 de julio de 2025
Google, el buscador más famoso del mundo, ha anunciado que va a modificar sus directrices con la intención de penalizar a partir de ahora el contenido que, sin participación del ser humano, se haya creado de forma automática por Inteligencia Artificial (IA). Estas modificaciones, que se realizan de forma periódica y tienen como objeto un perfeccionamiento en el funcionamiento del motor de búsqueda de la multinacional tecnológica, implican la actualización de los parámetros de sus Search Quality Rater Guidelines, que son las directrices que hacen la evaluación de su calidad, y se traducirán en significativos cambios que afectarán de manera directa a los creadores de contenido en línea.
El cambio más significativo consiste en que las páginas que hayan creado su contenido principal por medio de herramientas de IA o actualizaciones serán valoradas con una puntuación más reducida por parte de los evaluadores de calidad de Google.
El Senior Search Analyst de Google, John Muller, fue el directivo encargado de publicitar esta novedad. Lo hizo en el marco del evento Search Central Live en Madrid, que se celebró el pasado día 9 de abril. Quiso acentuar de esta manera la política de penalización que Google ha adoptado hacia el contenido de bajo esfuerzo, poniendo un particular énfasis cuando el contenido ha sido creado por completo con IA.
Más en concreto, el movimiento de Google implica que esta evaluación será negativa cuando se considere que el contenido principal haya sido producto de la creación de IA (con nula o casi nula “ayuda” humana), y esto aplicará al contenido audiovisual, a las imágenes, al texto y, en fin, a todo contenido multimedia. Sobra decir que se incluye todo contenido que copie voces e imágenes mediante IA generativa, lo cual supone un paso de gigante en la lucha del colectivo de artistas intérpretes contra los deepfakes de audios y vídeos.
Todo ello implica un endurecimiento en las políticas de la compañía con respecto a la IA, ya que hasta ahora Google mantenía una posición ciertamente más tolerante. Pero, tras este cambio de estrategia, reconocen la nocividad del uso de forma incorrecta de la IA, con el riesgo de saturar de contenido sin ningún valor añadido estos canales de comunicación colectivos. Por otra parte, y como no podía ser de otra manera, tampoco dejan de reconocer la capacidad de esta herramienta para la creación, el descubrimiento y perfeccionamiento en lo que a obras audiovisuales se refiere.
Habría que considerar como quid de la cuestión capital para este examen que se diferencie entre un uso adecuado de la IA y un abuso, ya que no hay un desdén al uso de la IA, sino que se considera que el contenido debe haber sido editado y revisado por un humano. Es decir, la carga automática del contenido hecho exclusivamente por IA no ha de ser el eje principal, sino que ha de ser un complemento que sirva de apoyo y cobertura.
Entre los contenidos para los que Google ha anunciado que recibirán una puntuación baja se encuentran los siguientes: generación automática sin aportación de valor añadido, copias o reutilizaciones que no se consideren una adaptación de valor, inflado de contenido (relleno sin aportaciones de relevancia) y contenido manipulado con el propósito de crear ingresos.
Este anunciado escenario de mecanismos destinados a proteger a los artistas supone una buena noticia. A modo de ejemplo, se combatirán aquellas herramientas capaces de identificar voces y rostros generados por IA y suplantar las de los artistas originales. Todo ello supone una ayuda inestimable para que los artistas puedan desarrollar su trabajo en un campo que, día sí y día también, nos depara nuevas sorpresas. Y no todas favorables para sus intereses.
A modo de puntualización, precisemos que el buscador permite de manera natural hacer uso de la IA en sus webs. Google lo razona así: “nuestro enfoque en la calidad de los contenidos, más que en cómo se producen, es una guía útil que nos ha ayudado a ofrecer resultados fiables y de alta calidad a los usuarios durante años”.
Esta disertación de Google demuestra que en realidad no tiene mayor significación si un contenido ha sido creado por un ser humano o por una aplicación de IA. La incidencia que el buscador pretende aplacar se produce cuando los contenidos son publicados en masa. Este problema se ha acrecentado desde el lanzamiento de ChatGPT puesto que no ha tenido impedimento ninguno en publicar todo tipo de contenido de manera masiva. Objetvamente, habremos de acatar que la apuesta de Google ya no es rentable por la excesiva potencia de cálculo necesaria para escudriñar internet a esos altísimos niveles de generación de contenido, un proceso verdaderamente caro.
En el fondo, lo que más teme Google es que el disparatado aumento de contenidos que ha provocado la irrupción de ChatGPT se traduzca en una disminución de la calidad de las búsquedas. Este efecto ya se está produciendo a día de hoy, cuando constatamos que muchos de los contenidos generados por IA no destacan por su calidad, sino que pecan de imprecisión y excesiva rigidez. A la vez, cada vez son más evidentes ciertas características que comparten las creaciones de IA: algunas formas de escritura, excesivas repeticiones, errores al utilizar expresiones comunes y limitaciones en el plano emocional.
Google quiere, en este sentido, resaltar la importancia de la calidad de los contenidos por encima de la manera en que estos hayan sido originados. Prevemos, eso sí, que el paso del tiempo jugará a favor del perfeccionamiento de todos estos sistemas y, sin duda, a los detectores de contenido de Google cada vez les resultará más complicado establecer si el contenido ha sido una creación humana o, por el contrario, es un producto generado mediante IA.
Daniel Lema Rial
Jurista. Área de Negocio y Transformación Tecnológica en AISGE
Fuente: AISGE. Foto de Firmbee.com en Unsplash