Madrid, 3 de marzo de 2026
En la medida que se va conociendo y analizando el contenido del art. 13 del Real Decreto sobre la relación laboral del artista que proyecta el Gobierno, crecen las críticas jurídicas, políticas y estructurales. Las entidades de gestión de derechos más representativas de artistas y autores (AISGE, AIE y SGAE, principalmente) han intensificado sus críticas a dicho precepto por invadir innecesariamente el ámbito de los derechos de propiedad intelectual y por hacerlo de una manera tan burda y dañina que pudiera afectar, también, a los derechos fundamentales de autores y artistas al obligarles a ceder su voz o su propia imagen, además de su resultado creativo, para que hagan lo consideren las productoras, incluso para entrenar sistemas de Inteligencia Artificial Generativa (IAGen).
Aspectos generales de los sistemas de Inteligencia Artificial
En primer lugar, la IAGen no crea. solo calcula probabilidades y arroja el resultado más plausible. Cuando escuchamos el término "Inteligencia Artificial Generativa" pensamos en herramientas como ChatGPT, pero técnicamente hablamos de un LLM (Large Language Model). Y cuando nos referimos a un LLM, hablamos de una máquina que ha aprendido observando y analizando millones de ejemplos (datos).
Imaginemos que alguien ha visto durante años todas las películas de Javier Bardem, Antonio Banderas y José Sazatornil. Ha memorizado cómo miran, cómo respiran antes de una frase, cómo sostienen un silencio. Si le pedimos que actúe una escena dramática, mezclará esos patrones aprendidos (imitación) junto a su propia impronta personal, y, sin ser ninguno de estos actores, podremos reconocer algo de cada uno en su interpretación.
Pues bien, salvando las distancias, eso es lo que hace un LLM, sustituyendo por matemáticas (algoritmos) la emulación, la intuición y el proceso creativo del arte. Estos LLM son capaces de generar secuencias de escenas completas, voces sintéticas o actuaciones actorales digitales: son los llamados modelos multimodales. En este sentido, hemos de advertir que el art. 13 RD habla de "sistemas de inteligencia artificial generativa" como un todo, referido a "modelos de IA de uso general previsto en el art. 3, punto 63, del Reglamento UE 2024/1689", lo cual resulta incorrecto y, además, no puede ser así, pues no se refiere a su entrenamiento directo, aunque lo da por supuesto. Es decir, el art. 13 se centra en el Output (salida) y no en el Input (entrada).
Conceptos básicos de la Inteligencia Artificial Generativa (IAGen)
Input: son los datos, informaciones o "materia prima" que se suministra a los sistemas de IAGen. Son los contenidos que alimentan y entrenan a la IA.
Output: son los resultados, los productos, servicios o respuestas obtenidos con las informaciones y datos suministrados a través de los inputs.
Evidentemente, el art. 13 del proyectado RD se basa en el resultado del trabajo artístico y de los usos que del mismo se autorizan en el contrato de trabajo y en el Convenio Colectivo laboral, cuando en esa fase de producción aún se desconoce el alcance de los posibles usos y, sobre todo, el valor económico de esa cesión.
De otro lado, el artista debería tomar nota también de los siguientes conceptos antes de suscribir cualquier contrato de trabajo para una producción audiovisual:
Tokenización: Estos sistemas descomponen el material en piezas pequeñas, y a esto se le llama tokens. Aunque parezca algo muy técnico, es lo que hace, por ejemplo, un director de casting. En la audición no se juzga al actor como un bloque, sino que, en cierta manera, se descompone todo lo que hace con su personaje: la mirada, su gesticulación, su voz, su físico. Son todos estos elementos los que, una vez analizados, permiten una valoración. Pues eso hacen estos sistemas: trocean, etiquetan y almacenan fragmento a fragmento cada elemento de la actuación actoral.
Inferencia: Cuando el modelo ya está entrenado, comienza la fase en la que puede generar resultados. A eso se le llama inferencia. No es lo mismo el entrenamiento que la inferencia. Son dos fases completamente distintas, con un tratamiento jurídico diferente. Para un actor, como la diferencia entre que alguien haya aprendido a imitarte estudiando tus actuaciones previas fijadas durante años para luego imitarte en público. La primera fase se hizo en privado, pero cuando actúa, la imitación ya es visible, y ya no es lo mismo.
Inputs y Datasets: las actuaciones actorales fijadas (grabadas) como materia prima de la IAGen Para que un LLM aprenda necesita ejemplos, modelos, datos, informaciones, imágenes, sonidos, etc. Cada uno de esos ejemplos o datos es un input. Cuando esos ejemplos se recopilan, se seleccionan, se limpian y se estructuran para alimentar el sistema de manera organizada, el resultado es un dataset.
Pongamos un caso concreto. Una plataforma de streaming tiene en su catálogo cientos de series y películas. Cuando decide usar parte de ese catálogo para entrenar su propio sistema interno de IA, cada episodio o película sería un input. El conjunto organizado y preparado de todos ellos es el dataset. ¿Qué estaría en ese dataset? Entre otros elementos, las voces, los rostros y las actuaciones actorales de cientos de actores que nunca dieron su consentimiento para eso.
Si se entiende lo anterior, podemos comprender por qué el anteproyecto del Real Decreto del Estatuto del Artista se adentra en terrenos que no deberían regularse con una norma de ámbito laboral y de rango reglamentario. Por ejemplo, cuando se refiere a "procesos internos no destinados a explotación o a la comunicación pública", precisamente lo que está amparando es que las actuaciones actorales sean usadas para entrenar modelos. Sin embargo, todas estas cuestiones deben tratarse en la norma correspondiente y requieren herramientas propias del derecho de propiedad intelectual.
Y esto es importante, porque cuando la obra de un artista forma parte de un dataset, el sistema se entrena con ella de manera irreversible. Intentar retirar una obra de un sistema ya entrenado es como intentar sacar la sal del caldo cuando ya está cocinado. No se puede "desentrenar" un modelo.
Pero, además, el art. 13 del proyecto de RD permite:
i).- Sin límite en la autorización, el uso del resultado del trabajo artístico para entrenar los sistemas IAGens.
ii).- Crear actores y/o voces sintéticas no recognoscibles mediante pacto en el contrato individual, a cambio de una retribución que puede ser simbólica.
"Copiar sin que se note": los Embeddings y el Espacio Latente
Ya hemos dicho que los sistemas de IA no guardan las actuaciones actorales como si fueran un videoclub digital. Lo que hacen, primero, es tokenizar, es decir, descomponer cada actuación en piezas, y es con estas piezas con las que se construye el embedding.
Es como un book matemático del actor. ¿Qué tiene ese book? La frecuencia, el ritmo, la intensidad de su habla o la duración media de sus silencios. Pero también la relación entre sus microexpresiones y su entonación. No es una copia integral de la actuación, sino una descripción completísima del trabajo del actor en números y algoritmos. Una descripción tan buena que luego permite generar una voz o una actuación que suene y se parezca a él sin ser él.
Imaginemos un mapa enorme donde están organizadas y relacionadas entre sí todas las actuaciones actorales que el sistema ha procesado, todas reducidas a números. Cuando pedimos al sistema que genere un resultado, viaja por ese mapa buscando, interpolando y mezclando representaciones, combinando rasgos de unas actuaciones con la impronta personal de otros actores. A ese mapa interno se le llama espacio latente.
Pues bien, el art. 13, mediante una errática formulación, abre las puertas a todas estas posibilidades sin más formalidad o exigencia de que las mismas se hallen pactadas en el convenio colectivo laboral que suscriben sindicatos y patronal, y sean trasladadas a los contratos individuales, privando al actor de su libertad contractual real y de la posibilidad de proteger el resultado de su trabajo artístico a través del sistema de derechos de propiedad intelectual, de la protección de datos personales, etc.
Sobre la clonación de actores: el Fine-Tuning
La clonación de actores consiste en generar mediante IA una "réplica o copia" digital de un actor muy parecida a su apariencia real perceptible. Normalmente al actor se le clona sobre la base de algún personaje que ya ha actuado. Esta réplica digital de un actor recrea toda la apariencia física del actor, sus movimientos, gestos, voz, etc. A través de sistemas IA pueden hacer que este "clonado digital" actúe, se comporte como un personaje de la vida real, etc.
El lenguaje suele incurrir en el error de calificar a los personajes así creados de "actor clonado", "actor sintético" o "avatar". Lo que contribuye a generar mayor confusión a la hora de su análisis, pues atribuye cualidades y calificativos propios del ser humano a un sistema artificial.
Pero para entender este concepto debemos poner de ejemplo las declaraciones de Antonio Banderas en las que le ofrecían hacer una película mediante IAG y él solo pondría la voz. Ya no vale que se genere algo sin más, debe ser parecido al actor. Ajustar un modelo de IAGen para que el resultado sea más fino se denomina fine-tuning. Para lograr "un Antonio Banderas", el sistema deberá ser entrenado con una parte significativa de la filmografía de Antonio Banderas.
Nuevamente vemos cómo el concepto "procesos internos", abre la puerta a este tipo de prácticas y de ahí la insistencia en que hay aspectos que deben ser regulados en el marco jurídico que verdaderamente le corresponde (Ley de Propiedad Intelectual), lo que constituye otro indicio de que el texto del art. 13 fue redactado sin una comprensión suficiente de lo que regula.
Los frutos de la IAGen: el resultado que se obtiene tras el Prompt (el Output)
Una vez llevado a cabo todo lo anterior, ya podemos pedirle resultados al sistema de IAGen, y estos resultados son lo que llamamos output: El resultado generado que vemos o percibimos. Para ello se dieron instrucciones que se denominan prompt. Por ejemplo: "un personaje con facciones maduras, atractivo, pelo largo, abre una guitarra, saca armas y se pone a disparar". El sistema procesa ese prompt, navega por su espacio latente y genera el resultado que, siguiendo el ejemplo de Antonio Banderas, se parecería mucho a una escena de la película Desperado.
Ese resultado puede ser cualquier cosa que se pida mediante un prompt: desde algo completamente novedoso hasta una versión modificada de una actuación real donde se han alterado palabras, expresiones o contexto.
Curiosamente, el art. 13 del anteproyecto de Real Decreto se centra sobre todo aquí, en el output, y establece que dentro de la obra para la que el actor fue contratado puede generarse contenido con su imagen y su voz, siempre que la interpretación permanezca "significativamente" tal como fue interpretada. Es una concesión, ilimitada de facto, presentada como una garantía, cuando en realidad abre más puertas de las que cierra y generará mayor inseguridad jurídica de la que existe.
Significativamente es un adverbio. Jurídicamente es lo que se llama un concepto jurídico indeterminado. ¿Es significativo cambiar tres frases de un monólogo? ¿Y la modulación de la voz para que exprese una emoción distinta? ¿Y si se recrea una escena completamente nueva con el rostro del actor, pero sin su participación? La línea es tan delgada que va a generar litigios durante años. Es un problema difícil, pero será más fácil de resolver si se aborda con la norma correcta y el análisis correcto. Además, ya hemos advertido que en la mayoría de casos no se utilizarán las obras o las actuaciones actorales como un todo, sino de manera fragmentada para integrar nuevos personajes en otras obras creadas por IAGen.
Sobre las formas de otorgar el consentimiento: Opt-In y Opt-Out
Ya vemos que el tema es complejo, y que el consentimiento del artista debería ser la pieza angular sobre la que pivote el sistema. Por ello, es fundamental diferenciar entre dos sistemas o formas en que el artista puede otorgar su consentimiento para la utilización del resultado de su actuación por cualquier sistema de IAGen: el opt-in y el opt-out.
En un sistema opt-in, el consentimiento ha de darse previamente, de manera explícita y específica. En un sistema opt-out, el uso de la actuación actoral fijada o grabada se produce por defecto, y si el actor desea salirse del sistema debe comunicarlo, aunque ya hemos dicho que una vez entrenado el sistema es casi imposible desentrenarlo.
El problema es lo que ocurre en la vida real. Al artista le impondrán firmar ese consentimiento, y, si no lo firma, no trabajará. Ese es el esquema que ofrece el art. 13 del RD, con el hándicap de que el artista ha de hacer esa autorización en la fase de mayor debilidad negociadora. Por eso, y por otras muchas razones, AISGEconsidera que la única fórmula viable y eficaz en el actual panorama de la IAGen es un sistema de opt-out ejercitable por AISGE, en el ámbito de la propiedad intelectual y de manera colectiva e internacional, para evitar que los derechos que pudieran corresponderle al artista por tales cesiones o autorizaciones no queden vacíos de contenido por haberlos cedido al productor en la fase de producción. Esta medida, similar a cómo opera AISGE respecto de los demás derechos de propiedad intelectual evita que el actor tenga que enfrentar esas decisiones complejas en la fase de trabajo o en la previa de la firma del contrato laboral.
Dicho todo lo anterior, ahora podemos comprender por qué la naturaleza laboral del Real Decreto del Estatuto del Artista solo debería regular las condiciones laborales. Pero no puede ni debe entrar a regular qué ocurre con los embeddings de un actor dentro de un modelo de IA, ni poner límites al fine-tuning, ni articular un sistema de compensación por el uso de sus actuaciones o interpretaciones artísticas. .
Marco Antonio Mariscal Moraza Abogado y Doctor en Derecho.
Profesor de Derecho Civil en la UAH.
Director de Transformación Tecnológica en AISGE
Fuente: AISGE Imagen: Marina Gala

