Madrid, 12 de marzo de 2026
Para entender hacia dónde se dirige el sector audiovisual y cómo se configurará la protección de los creadores en el entorno de la Inteligencia Artificial Generativa (IAGen), debemos analizar cada movimiento del mercado y de la industria audiovisual como una partida de ajedrez donde cada jugada es la preparación de la siguiente.
Recientemente, Netflix ha adquirido la startup InterPositive, dedicada al uso de la IAGen en la postproducción de obras audiovisuales. Lo que podía parecer una operación comercial común y corriente, sin embargo, puede ser una jugada que mueva el tablero para asegurarse el control de las producciones y evitar pleitos innecesarios. Es decir, parece que Netflix está llevando a cabo una estrategia legal que le permita cumplir de forma preventiva con la normativa en el uso de la IAGen, precisamente en un momento en que el entrenamiento de modelos con obras protegidas constituye la mayor fuente de litigios.
InterPositive es una startup fundada en 2022 por el actor Ben Affleck, dedicada a crear herramientas de IA entrenadas exclusivamente con material propio (dailies, rushes y archivos de producción sobre los que la plataforma ostenta derechos plenos). Es decir, la empresa es titular de los derechos de las obras usadas como input para el entrenamiento de los sistemas de IAGen, por lo que, a priori, actúa en el marco de la legislación vigente y es ajena a los pleitos por el uso no consentido de estas obras como materia prima en los entrenamientos. Netflix es consciente de que la clave no está en el output generado, sino en la licitud del input utilizado para entrenar los modelos.
El equipo técnico de InterPositive se incorporá al ecosistema de la plataforma, mientras Affleck seguirá como asesor senior en la orientación del desarrollo de herramientas de postproducción (iluminación digital, eliminación de elementos, corrección visual), siempre bajo supervisión humana. Netflix adopta la filosofía de usar la IAGen como herramienta de asistencia al creador humano, quien mantiene la autoría de lo creado.
Mientras Netflix se centra en el control de los datasets y los inputs para su uso en las producciones, varios actores optan por la protección de su identidad artística frente a usos no autorizados mediante la inversión en otras empresas tecnológicas.
El caso con mayor repercusión mediática ha sido el de Matthew McConaughey, quien ha invertido en la empresa ElevenLabs, dedicada a la clonación de voces, y además ha procedido a registrar la suya. De hecho, el actor emplea la tecnología de ElevenLabs para la narración en español de su newsletter Lyrics of livin. De esta manera predica con el ejemplo, y opera bajo el principio de que el uso de una voz clonada debe estar licenciado y autorizado por su titular.
Figuras como Michael Caine, Art Garfunkel y Liza Minnelli apoyan la iniciativa y han sido incorporadas al llamado Iconic voice marketplace. Es decir, la aplicación cuenta con un catálogo de licencias de voz para usos específicos bajo condiciones estrictamente pactadas. Incluso los herederos de Judy Garland, John Wayne o Rock Hudson han llegado a acuerdos para la clonación de sus voces mediante la correspondiente contraprestación económica.
Esta actuación parece lógica cuando técnicamente resulta imposible impedir la clonación de nuestras voces. Lo que se pretende desde la plataforma es conseguir que la clonación de voz se realice en un régimen de licencias que garantice el control de su titular y frene los usos no consentidos. Ambos casos parecen augurar cómo será la regulación en los próximos años, anticipando así al legislador y evitando conflictos con terceros.
Más seguridad para la identidad del artista
Consecuentemente, de un lado se observa cómo la adquisición de InterPositive por Netflix trae causa del control de los datos de entrada que eviten conflictos con terceros, como los pleitos abiertos entre Getty Images y Stability AI o las demandas colectivas de autores contra OpenAI y Anthropic en la jurisdicción estadounidense. Por su lado, ElevenLabs se centra en dotar de seguridad a la identidad del artista: mediante licencias explícitas, crea un marco contractual que blinda su uso frente a deepfakes vocales no consentidos, estableciendo en qué condiciones puede ser utilizada la voz y garantizando la remuneración de sus titulares.
Parece que en ambos casos la causa es la misma: no se trata de regular qué ocurre con el contenido generado, sino de asegurarse la licitud de los datos con los que el sistema fue entrenado.
Desde un punto de vista normativo europeo, recordemos que el Reglamento (UE) 2024/1689 sobre Inteligencia Artificial, establece obligaciones de transparencia en relación con los datasets utilizados por sistemas de IA de propósito general (GPAI). La norma, también exige a los proveedores de modelos de alto impacto el cumplimiento de la normativa de derechos de autor en el marco de la Unión, incluida la Directiva (UE) 2019/790 sobre derechos de autor en el mercado único digital.
Es decir, ambos modelos, ya sea el de Netflix …€“basándose en material propio…€“ como el de ElevenLabs …€“a través de licencias explícitas…€“ ofrecen más garantías de cumplimiento normativo que las obligaciones impuestas por el Reglamento IA UE, si bien el principio de transparencia que proclama esta normativa permitirá la trazabilidad de los datos de los contenidos protegidos por el derecho de autor. Al mismo tiempo, la trazabilidad del dato es la clave para cumplir con la norma.
Lejos de los pleitos y disputas entre legisladores y empresas tecnológicas, parece que son los propios creadores quienes están tratando de escribir el guion en este nuevo escenario. Ya sea mediante la inversión, el licenciamiento o el diseño de modelos de negocio éticos con los creadores y la propiedad intelectual. Y ello, porque son conscientes de que deben mover ficha antes de convertirse en meros sujetos pasivos de una tecnología que pertenece a otros.
Una vez más, el mundo, la industria audiovisual y los actores estadounidenses avanzan por caminos diametralmente opuestos a como pretende hacerlo el criticado art. 13 del Real Decreto del Estatuto del Artista. Dicho precepto, sin advertir las puertas y opciones que cierra, así como la incoherencia y contradicción de las soluciones que arbitra respecto de la realidad del mercado audiovisual y de las prácticas contractuales, nos desplazará en España el reto de la IAGen hacia un pantano de tierras movedizas del que será muy difícil salir para marcar el camino correcto, sea éste el que está siguiendo Hollywood o cuales quiera otros más conectados con la verdadera esencia del trabajo creativo del actor y sus potencialidades de explotación y de generación de rendimientos económicos en el nuevo universo IAGen.
Una mala regulación siempre será mucho peor que la ausencia de esta. Una mala regulación obstaculizará la implantación de soluciones justas y eficaces en la realidad cotidiana, sin perjuicio del efecto contaminante que pudiera generar respecto de las futuras normas en materia de AIGen de rango legal, comunitario o internacional. Una mala regulación, en lugar de proteger, perjudicará a los actores y demás artistas, que, además, se verán forzados a ceder todo a cambio de nada o de algo simbólico.
Abel Martín Villarejo, Director General de AISGE.
Profesor de derecho Civil en la Universidad Complutense de Madrid
Fuente: AISGE

