Desde el pasado mes de agosto, la aplicación Grok Imagine permite crear imágenes y videos con contenido erótico para adultos denominados “spicy” (picantes) o NSFW (Not Safe for Work). Esto no debería sorprendernos, pues Grok pertenece a xAI, la cual es propiedad de Elon Musk, quien siempre ha defendido la innovación frente a las restricciones legislativas o normativas.
Aunque xAI prohíbe expresamente este tipo de usos y creaciones, lo cierto es que los filtros establecidos para impedir la regeneración de estas imágenes son bastante fáciles de superar. Prueba de ello es que la red se ha inundado de deepfakes eróticos de políticos o celebridades, sobre todo mujeres. Si a esto le sumamos que el consumo de contenido para adultos es elevadísimo –algo que no debería extrañarnos si recordamos que las tres principales plataformas con videos para adultos (Pornhub, Xvideos y XNXX) superan con creces las visitas a Netflix o Amazon–, tenemos el cóctel perfecto. Por ello, si alguien se piensa que la obligación de etiquetar el contenido creado por IA y en especial los deepfake va a frenar la creación de este tipo de material, está más que equivocado.
Los usuarios que buscan y consumen estas imágenes, muchas veces aún adolescentes, se guían por el morbo de lo prohibido y lo oculto, y les resultará indiferente que el contenido sea sintético o real. Por lo que pronto, veremos cómo el contenido erótico o pornográfico sintético inunda poco a poco la red. Que nadie se sorprenda de esto, pues es lo que suele ocurrir cuando se legisla rápido y con la única guía de ser el primero en promulgar la norma más novedosa que llene titulares, sin buscar el diseño de medidas eficaces para la trazabilidad, seguimiento y, llegado el caso, la retirada de estos contenidos.
Que la IA pueda generar este tipo de imágenes y videos no es algo nuevo. Sí que es novedosa, en cambio, la accesibilidad que ofrece Grok para que cualquier usuario lo pueda hacer con facilidad, y más en un momento donde uno de los grandes debates es el uso ético de la IA. Por ello, la decisión Elon Musk para que su IA permita la creación de este tipo de contenido sorprende y asusta al mismo tiempo. No sabemos si sus disputas con la Casa Blanca habrán influido en ello, pero desde luego pone en jaque muchas cuestiones relativas al uso responsable de la IA y altera el tablero de juego.
¿Cómo paliar entonces el daño que provocará esta herramienta? A nivel europeo, además de la normativa referente a la IA y que poco a poco está entrando en vigor, quizás podemos encontrar amparo en el derecho de supresión (conocido como el “derecho al olvido”), regulado en el art. 17 del Reglamento General de Protección de Datos (RGPD). A nivel nacional contamos con otras herramientas jurídicas como la Ley Orgánica 1/1982, de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen. Estas normas permitirán ordenar de la retirada de los contenidos y fijar indemnizaciones a favor de los afectados, aunque la experiencia nos dice que lo que llega a la red llega para siempre y es muy difícil de eliminar por completo. Se hace necesario y urgente arbitrar soluciones jurídicas eficaces e inmediatas, sin necesidad de tener que acudir a un juzgado para, al menos, conseguir la cesación de la actividad ilícita o de la vulneración de derechos fundamentales.
Además, y hasta que las futuras legislaciones puedan arbitrar soluciones eficaces frente a estas funcionalidades tecnológicas invasivas, en el ámbito nacional quizás también podamos buscar amparo y soluciones ante este tipo de actos o similares (la creación y difusión de deepfake eróticos) en el art. 197.7 de Código Penal español, que regula y tipifica la difusión de contenido íntimo sin consentimiento del afectado.
Ahora bien, la gran dificultad para poder identificar infracciones de derechos fundamentales al respecto estriba en el matiz, nada desdeñable, de si se pueden identificar los cuerpos sintéticos con los de una persona física o natural concreta, ya sea pública o privada. Es ahí donde la tecnología siempre busca los vacíos legales o la dificultad probatoria para invadir los ámbitos de la personalidad humana.Dicha identificación será más fácil, pero no sencilla de establecer con rigor jurídico, respecto de personas con proyección pública, especialmente actores y actrices, artistas en general, modelos, políticos, deportistas, periodistas, autoridades, etc.
En todo caso, este proceso de identificación de la infracción de derechos fundamentales puede ser una labor complicada y costosa para el afectado, quien, a priori, deberá atender a cualquier detalle físico como lunares, cicatrices o tatuajes para cerciorarse de que el cuerpo es suyo. Pero esto por sí no basta, y en el ámbito judicial se exigirá acreditar el montaje, debiendo buscar en las “costuras digitales” del montaje o en el archivo (sombras imposibles, inconsistencias o saltos de fotogramas) para acreditar el uso indebido de la imagen ajena. Por tanto, las personas físicas individuales, a fecha de hoy, no cuentan con herramientas jurídicas adecuadas para hacer valer sus derechos fundamentales en el actual entrono tecnológico y la brecha cada día se amplía ante la impotencia de quienes reclamamos, humanamente, un mínimo de protección y de uso ético de la IA.
El tiempo dirá por qué Elon Musk ha decidido que su IA comience a generar este tipo de imágenes, y el tiempo nos dirá hasta qué punto se le pueden poner puertas al campo y establecer unos límites mínimos, justos y eficaces al uso de la IA generativa, antes de que quiebre de manera irreversible el sistema de derechos humanos o fundamentales que protegen lo más valioso del ser humano.
Marco Antonio Mariscal Moraza
Abogado y Doctor en Derecho. Profesor de Derecho Civil en la UAH.
Responsable de Transformación Tecnológica en AISGE
Fuente: AISGE