Madrid, 12 de enero de 2026
El pasado 27 de noviembre, la Fundación AISGE moderó una mesa redonda sobre el impacto de la inteligencia artificial (IA) en las producciones audiovisuales en el marco del Festival de Cine de Zaragoza. Más allá de los debates jurídicos o técnicos, se abordó cómo afecta la IA a las producciones nacionales y de qué manera ha entrado en ellas de manera sigilosa sin que existan reglas o controles efectivos sobre su uso. En la mesa se debatió sobre las oportunidades que brinda esta tecnología al sector, pero también se habló de los miedos que suscita en la industria cinematográfica.
El primer miedo, quizá el más visceral, además tiene un componente reivindicativo o de queja: el miedo de los creadores al uso de sus obras para el entrenamiento de los modelos de IA sin su consentimiento, sin que exista transparencia alguna y sin ningún tipo de compensación. Hoy en día esto ya no es solo una sospecha, sino que se trata de una verdadera certeza asumida por el sector. Todos sabemos que estos grandes modelos han sido alimentados y entrenados con millones de imágenes, guiones, músicas y estilos, hasta tal punto que nadie puede afirmar con seguridad que su obra no esté ahí dentro, diluida con otras y reducida a materia prima algorítmica.
El segundo miedo, de orden práctico, es quizá el más preocupante, porque afecta directamente a la autoría. La falta de una regulación clara provoca que la mayoría de los creadores no sepan dónde está el límite en el uso de la IA durante el proceso creativo, lo que podría poner en riesgo su consideración de autor sobre la obra, y con ello, sus derechos. Aunque muchos admiten utilizarla para tareas puntuales, no siempre se atreven a reconocerlo públicamente por temor a que su proyecto sea descartado en un festival o en una comisión de ayudas por si acaso se decide que carece de la intervención humana exigible.
Es este último miedo el que, en ausencia de reglas precisas, puede conducir a una autocensura generalizada. Sin embargo, paradójicamente, ocurre lo contrario en el extremo opuesto. Algunos profesionales presumen de usar IA de forma intensiva porque proyecta una imagen de innovación, cuando en realidad apenas la han usado. Dicho en otras palabras, una herramienta clandestina para unos, un gesto cosmético para otros. Mientras, ambos tienen una cosa en común: nadie consigue usarla con verdadera naturalidad.
Quizás la mejor muestra de lo anterior es la reciente polémica surgida en torno al cortometraje El corto de Rubén, que ha puesto de relieve precisamente estos temores. Este corto fue preseleccionado para los Premios Goya 2026, pero en sus créditos finales aparece una canción interpretada por la voz de la cantante ficticia AI Tiana (el mismo nombre es un guiño a su generación mediante inteligencia artificial). Y he ahí la polémica. Lo que podría verse como un hecho aislado, incluso novedoso, se ha convertido en el objeto de debate sobre los límites del uso de la IA en las producciones audiovisuales. El reglamento de los premios Goya exige que las obras en competición tengan autoría humana identificable y que el uso de herramientas de IA no sustituya la creatividad de manera esencial. Pero en el caso que nos ocupa, la pregunta es si una canción con escasa incidencia es un uso complementario de la IA o vulnera las bases del certamen.
La polémica plantea interrogantes muy amplios. No todo el cine es igual y por tanto el uso de la IA es diferente. ¿Qué es lo aceptable y qué no, y quién decide dónde está el límite? Lo ocurrido con El corto de Rubén no es, por tanto, un hecho aislado, sino la prolongación natural de lo que se habló en el Festival de Zaragoza. El miedo nace de la falta de reglas claras. Por tanto, el temor no es al uso de la IA, sino a la ambigüedad que la rodea. Los creadores son los primeros que abrazan la tecnología, pero temen que su uso traiga consecuencias profesionales, legales y reputacionales. Y ello porque no tenemos un marco estable que determine qué es un uso legítimo, qué debe declararse o qué constituye una verdadera sustitución de la autoría humana. Siempre hablamos de la falta de transparencia o de ética en los entrenamientos de los grandes modelos de lenguaje de IA. Pero quizás es precisamente la falta de claridad en el uso de la IA la que está frenando la innovación. No se puede trabajar en la incertidumbre. El sector necesita códigos de buenas prácticas como el publicado recientemente por Netflix. Se trata tan solo de establecer criterios homogéneos que permitan distinguir entre asistencia técnica y sustitución creativa.
Una de las conclusiones de la mesa de debate fue que la IA ya está aquí, pero aún no hemos aprendido a convivir con ella. Por tanto, es necesario establecer un marco regulatorio claro y consensuado, porque, como sabemos, la tecnología avanza rápidamente, pero ofrece pocas explicaciones sobre su funcionamiento.
Marco Antonio Mariscal Moraza Abogado y Doctor en Derecho.
Profesor de Derecho Civil en la UAH.
Director de Transformación Tecnológica en AISGE
Fuente : AISGE

