Coincidiendo con el lanzamiento de Sora 2 por parte de OpenAI, se multiplicaron las noticias en torno a un personaje sintético generado por IA al que se bautizó con el nombre de "Tilly Norwood". Estos episodios han reavivado el debate sectorial sobre cómo la inteligencia artificial está transformando desde hace ya más de un año la industria del cine y la televisión.
El sindicato de actores y actrices Sag-Aftra, que aglutina a la inmensa mayoría de artistas audiovisuales estadounidenses, emitió un esclarecedor comunicado al respecto que, por su interés, reproducimos en castellano a continuación:
"Seamos claros: Tilly Norwood no es una persona. Es una creación sintética generada por software entrenado con el trabajo de innumerables artistas profesionales, seres humanos reales, cuyo trabajo fue utilizado sin permiso, crédito ni compensación. Cuando los medios de comunicación califican como un "gran avance" para la industria del entretenimiento la creación artificial de personajes de aspecto realista, o incitan a una competencia inexistente de "contratación de estrellas" entre agencias, pasan por alto la verdad fundamental: Tilly no es la amenaza. El verdadero peligro proviene de un entorno desregulado que solo puede prosperar robando información digital de artistas y compañías, y usándola sin ética ni respeto.
En esta historia de creación de personajes sintéticos no hablamos de una novedad. Lo que está en juego aquí es la autoría, el consentimiento y el valor del arte humano. Antropomorfizar la falsificación sintética, ponerle un nombre fácil de memorizar y realzar la representación de la belleza del personaje no es objetivo ni auténtico; es una distracción, una desviación de lo que realmente está sucediendo. Lo que se ha creado es una narrativa sensacionalista, diseñada para manipular al público y dar cabida a una explotación continua.
El lanzamiento público de Sora 2 y sus capacidades notablemente avanzadas entusiasmaron a algunos observadores. Para muchos más, esta vertiginosa evolución tecnológica genera profunda preocupación. La decisión de OpenAI de respetar los derechos de autor únicamente mediante un modelo de "exclusión voluntaria" amenaza la base económica de toda nuestra industria y subraya lo que está en juego en los litigios que se tramita actualmente en los tribunales. Si las empresas de IA pueden trasladar la responsabilidad a los titulares de derechos para que opten por la exclusión voluntaria, ¿qué significa realmente el derecho de autor? La exclusión voluntaria no es consentimiento, y mucho menos consentimiento informado. Por eso, Sag-Aftra lucha por enfoques de inclusión voluntaria. Ninguna obra creativa, imagen, semejanza o voz debe utilizarse sin el consentimiento afirmativo e informado. Cualquier otra medida constituye una violación injustificable de nuestros derechos.
Dicho esto, el enfoque de Sora 2 para la replicación de imagen, semejanza y voz a través de su función "cameo" merece reconocimiento. Esta función permite crear una réplica digital de uno mismo y controlar su uso dentro de Sora 2, incluyendo si otros pueden acceder a ella. Fundamentalmente, este enfoque es optativo, lo que marca la diferencia. Si bien los controles y detalles siguen siendo imperfectos, incorporan los principios fundamentales del consentimiento informado y los aplican sistemáticamente. Todo ello responde a meses de diálogo entre Sag-Aftra y OpenAI, junto con el trabajo dedicado de nuestro equipo de trabajo de IA y nuestro personal. Esperamos que más empresas de IA sigan el ejemplo de OpenAI en este aspecto.
Sin embargo, debemos ante todo recordar que el público no construye conexiones emocionales ni relaciones para toda la vida con algoritmos. Conecta con los artistas. Se ve reflejado en interpretaciones humanas reales; en la alegría, el desamor, los celos, el amor, la resiliencia y la verdad que solo una persona puede expresar. Desde Homero y Shakespeare hasta los narradores actuales, la interpretación siempre ha sido un espejo de nuestra humanidad compartida. Ningún conjunto de datos ni modelo generativo puede capturar esa chispa. La IA se está volviendo más realista, pero el público siempre se sentirá atraído por lo real y verdadero. Quieren saber que el artista realmente siente lo que ellos sienten, en una risa, un sollozo, una sonrisa o una lágrima. Cuando se conmueven, quieren saber que lo que sienten es real. Quieren pruebas. La intención del artista es lo que lo hace real. Si se raspa, alimenta o deconstruye el amor o la ira en un billón de componentes, que luego se vuelven a ensamblar para manipularlos y reutilizarlos sin decirle al público exactamente de dónde provienen, se está degradando la experiencia y desvinculando su realidad. Sí, existe un esfuerzo humano para crear imágenes sintéticas o voces como la de Tilly Norwood, pero ese proceso socava el ecosistema mismo que hace posible la narración. Insulta el talento artístico de nuestros artistas, ataca nuestro negocio y amenaza el legado que crea el trabajo de nuestros miembros, en muchos casos construido a lo largo de generaciones.
Por eso, Sag-Aftra ha luchado y seguirá luchando por protecciones sólidas y exigibles. A lo largo de la historia laboral, cuando surgen nuevas tecnologías y las empresas las adoptan, los trabajadores se ven perjudicados y los sindicatos deben luchar para protegerlos. En 2017, la dirección del sindicato identificó formalmente esta amenaza y comenzó a trabajar con pasión y creatividad sin descanso para combatirla. Muchos de nuestros miembros desconocen que hemos colaborado con legisladores, incluso redactando en ocasiones leyes de protección de la IA. Hemos estado lidiando con las complejidades de la legislación sobre propiedad intelectual y otras cuestiones, porque la ley debe amplificar el poder de nuestros contratos y, hasta ahora, esta apenas existe. He aquí los logros conseguidos hasta ahora por el sindicato: En la huelga de 2023, Sag-Aftra obtuvo sus primeras protecciones ejecutables en torno a la inteligencia artificial. Los empleadores deben obtener un consentimiento claro e informado antes de crear o usar una réplica digital. Deben pagar un precio justo por dicho uso. No pueden reutilizar indefinidamente un escaneo o una interpretación sin una nueva negociación para compensarla. Y no pueden emplear intérpretes sintéticos en proyectos de cine, televisión y streaming cubiertos, excepto bajo condiciones estrictas.Nuestros contratos en cine, televisión, publicidad y otras áreas generalmente requieren notificación y negociación cuando se van a utilizar artistas sintéticos.Si se crea un personaje sintético solicitando a un sistema de IA generativa el nombre de un intérprete (con el agregado, en algunos casos, de un rasgo facial importante), se requiere el consentimiento del intérprete.
Hay aspectos, sin embargo, que la ley aún no protege. Nuestros contratos vinculan únicamente a los empleadores firmantes. No pueden impedir que los desarrolladores de IA copien actuaciones de internet ni que entrenen modelos con décadas de cine y televisión sin permiso. Por eso, Sag-Aftra ha liderado la lucha por leyes más estrictas: la "Ley No Fakes" prohibiría las réplicas digitales no autorizadas. La "Ley Train" exigiría transparencia en los conjuntos de datos de entrenamiento. La Ley de Responsabilidad de Inteligencia Artificial y Protección de Datos crearía un agravio federal por el uso no autorizado de datos biométricos. En California y Nueva York hemos defendido una legislación que exige transparencia y divulgación cuando se utilizan artistas sintéticos.
Hacia dónde nos dirigimos
Sabemos que algunas compañías seguirán desafiando los límites, promocionando a los "artistas sintéticos" como la próxima gran novedad. Y aunque herramientas como Sora 2 generan admiración por su destreza técnica, el público sigue demostrando que lo que más le conmueve no es la simulación, sino la sinceridad. La verdadera conexión solo se produce cuando un artista vivo da vida a una historia.
Nuestro compromiso es simple y nuestra posición, inquebrantable: El rendimiento debe seguir centrado en el ser humano.La IA puede mejorar la creatividad, pero nunca debe reemplazarla.El uso de la IA debe ser transparente, consensuado y compensado. Le invitamos a conocer más sobre sus protecciones y nuestra defensa continua en sagaftra.org/ai.
Este momento es impactante, pero también esclarecedor. El mundo debe recordar que lo que nos mueve no es sintético. Es humano. Y mientras Sag-Aftra exista, defenderemos esa humanidad.
Con respeto y determinación:
Sean Astin, presidente.
Duncan Crabtree-Irlanda, Director Ejecutivo Nacional y Negociador Jefe".
Fuente: Sag-Aftra

