
Madrid, 2 de junio de 2025
No hay día en que no leamos una noticia relativa a los avances de la IA. Sin embargo, la legislación no avanza al paso que nos gustaría. Ante esta situación, y ante la necesidad de tener un criterio interpretativo, nos vemos obligados a estar atentos a cualquier resolución judicial que aparezca sobre esta materia. Y hasta la fecha, las escasas resoluciones judiciales o administrativas habidas sobre la materia han emanado de órganos judiciales o administrativos extranjeros. Tales resoluciones van aportando algo de luz en el plano jurídico, ético, económico o filosófico sobre el uso de esa tecnología en los procesos creativos.
Aunque la contienda es a nivel global, los campos de batalla más importantes son principalmente China, EE UU y la Unión Europa. Por ello, merece la pena que hagamos una pequeña recapitulación de los pleitos y resoluciones más relevantes en materia de IA generativa que han aparecido hasta la fecha. Y aunque el espacio no nos permite ser tan exhaustivos como desearíamos, al menos intentaremos reflejar el actual estado de la cuestión.
Por ser la pionera en fallar sobre estos asuntos, empezamos por China. Concretamente por la sentencia del Tribunal de Internet de Beijing de noviembre de 2023, que vino a decir que el esfuerzo creativo del ser humano y su originalidad reside en los prompts utilizados para la generación de contenido. Esta resolución estimó que la imagen creada mediante un sistema de IAG como resultado de todas las instrucciones dadas por el usuario del sistema IAG debía estar protegida por los derechos de autor. En la misma línea, el pasado 7 de marzo el Tribunal Popular de Changshu volvió a decir que una obra creada por Midjourney y posteriormente modificada mediante Photoshop tenía el suficiente grado de originalidad como para ser protegida mediante el derecho de autor.
Otra sentencia de relevancia fue la dictada por el Tribunal de Internet de Guangzhou el pasado 8 de febrero de 2024 y conocida como el caso Ultraman. El objeto de litigio era la posible vulneración de los derechos de propiedad intelectual a raíz de la creación de imágenes similares al superhéroe mediante un sistema de IAG. Este sistema había sido entrenado con imágenes del Ultraman, que, aunque eran de acceso público, se encontraban protegidas por el derecho de autor. El tribunal determinó que se trataba de obras derivadas realizadas sin la correspondiente autorización. Al parecer, el desarrollador del sistema no tuvo en cuenta las “Medidas provisionales para la administración de servicios de IA generativa” chinas que entraron en vigor en el año 2023. Es decir, que su responsabilidad derivó por una falta de implementación de mecanismos para evitar la infracción de derechos de autor, el establecimiento de filtros más estrictos y el respeto a los términos de uso de las obras.
A modo enunciativo, dejamos también apuntada la sentencia de abril del 2024, nuevamente dictada en Beijing, donde se falló a favor de una actriz de voz por la clonación no consentida de su voz en la generación de audiolibros, condenando a los demandados al pago de 250.000 yuanes (32.221 euros) y a realizar una disculpa pública.
Con estas sentencias, parece que China apuesta por la IAG como una herramienta más de creación artística, pero respetando el derecho de autor.
China, Estados Unidos y la Unión Europea se erigen en los principales campos de batalla. Y necesitamos que los jueces estén bien formados en las nuevas herramientas antes de decidir
Si volvemos la mirada hacia EE UU, vemos que a 28 de abril de 2025 existen 41 pleitos sobre procedimientos relativos a la IAG. Ello se debe a que es aquí donde se encuentran las sedes de las grandes empresas desarrolladoras de los sistemas de esta inteligencia. Aunque el lector curioso podrá profundizar más sobre el estado de los mismos en la web “ChatGpt se está comiendo el mundo”, hacemos mención a los más significativos.
Nadie olvida el revuelo que causó la resolución –que no sentencia, como muchos afirmaban– del Tribunal de Distrito Sur de Nueva York del 7 de noviembre de 2024. En este asunto, el tribunal desestimó una demanda presentada por Alternet y Raw Story, quienes consideraban que OpenAI violó la Digital Millennium Copyright Act (DMCA) al entrenar su IA utilizando miles de artículos sin autorización y eliminando información sobre la gestión de derechos de autor (CMI). El tribunal consideró en este caso que no se había concretado el daño o perjuicio concreto ni que las obras protegidas hubieran sido distribuidas sin su CMI como consecuencia directa del uso de ChatGPT. Por ello, permitió a los demandantes que subsanaran esta carencia y aportasen pruebas más concretas de las infracciones alegadas. El pleito aún sigue abierto.
Tampoco podemos dejar de mencionar la resolución de la Corte de Distrito de Delaware, de febrero de este año, que fallaba a favor de Thomson Reuters y en contra de la compañía Ross Inteligence. Aquí el debate era si el entrenamiento de la plataforma del demandado mediante el contenido publicado en Westlaw se podía encontrar amparado por el fair use. Parece que en este caso no. Y ello porque el demandado actuaba como competidor en el mercado y afectaba directamente al valor comercial del contenido comercial usado para el entrenamiento.
Ya en el ámbito europeo, hacemos referencia a la sentencia de septiembre del año pasado cuyo origen fue una demanda del fotógrafo Robert Kneschke contra Laion e.V. por incluir una de sus fotografías sin su autorización en el datasets diseñado para ser utilizado en el entrenamiento de modelos de inteligencia artificial (uno de los mayores datasets abiertos de imágenes del mundo). Aunque el tribunal confirmó que este uso infringía el artículo 72(1) del UrhG (la ley alemana de derechos de autor), también señaló que la acción estaba amparada por la excepción de minería de textos y datos (TDM) regulada en el artículo 60(d) de la Directiva 2019/790 (Directiva DSM). Aunque esta resolución aporta un poco de luz sobre los límites legales de la TDM, también plantea cuestiones sobre la explotación de obras sin compensación alguna.
Sin salir de Europa, y aún sin resolverse, observamos la demanda interpuesta ante el Tribunal Judicial de París por el Sindicato Nacional de la Edición (SNE), la Sociedad de Gente de Letras (SGDL) y el Sindicato Nacional de Autores y Compositores (SNAC) contra Meta. El motivo de su demanda es el uso “masivo” de libros para entrenar su modelo de IA, denominado Llama. Por último, también está pendiente de resolverse la demanda de la entidad alemana GEMA contra OpenAI por el entrenamiento de su LLM con las obras de sus miembros.
Todos estos pleitos reconfigurarán el concepto de creatividad. Por ello necesitamos que las resoluciones sean dictadas por jueces formados y que se familiaricen técnicamente en el uso y manejo de estas herramientas antes de tomar sus decisiones. Nos quedaremos más que satisfechos si resuelven de manera precisa y correcta el papel juegan los límites del fair use y la minería de datos en el entrenamiento de la IAG.
Por último, e independientemente del resultado de estos pleitos, lo que sí tenemos ya claro es que el uso de las herramientas de IA para la creación de obras será tan común como el autotune en el reguetón.
Marco Antonio Mariscal Moraza , Abogado y Doctor en Derecho. Profesor de Derecho Civil en la UAH.Responsable de Transformación Tecnológica en AISGE
Fuente: Aisge Gráfico: Image by rawpixel.com on Freepik

