Desde esta sección ya veníamos advirtiendo sobre los riegos de vulneración de derechos fundamentales y de un uso nada ético de la IA, bajo un modus operandis invasivo de la intimidad, utilizando imágenes (rostros) de personas reales (comúnmente de proyección pública: artistas, periodistas, políticos) vinculadas a cuerpos virtuales sexualizados mediante un sistema IA. En los últimos días, los grandes medios de comunicación se han hecho eco de la capacidad desarrollada a través de Grok, la IA de X (antes, Twitter), para generar imágenes sexualizadas. Ahora muchos titulares nos anuncian, con gesto de alarma, que la IA permite crear imágenes pornográficas (y, por desgracia vejatorias) a partir de fotografías de personas reales.
Lo que sorprende no es el fenómeno, sino el momento en el que se publica esta noticia. Porque esto no ocurre desde ahora. Sucede desde hace meses. Internet está lleno de este tipo de imágenes desde agosto, cuando la red se inundó de contenidos generados por IA con fines claramente sexuales o vejatorios. No nos encontramos ante un fenómeno experimental, residual o marginal. La novedad no es que Grok permita este tipo de imágenes. La novedad es que ahora es noticia.
Precisamente, desde Tecnología y Derecho, ya a principios de septiembre analizábamos la generación de estas imágenes sexuales y pornográficas mediante IA, así como su impacto directo sobre la imagen personal, la intimidad y reputación de las personas físicas (de proyección pública, principalmente), y los riesgos jurídicos asociados. No como una hipótesis futura, sino como un fenómeno que ya estaba arrasando en la red. Por eso, el actual revuelo mediático produce más perplejidad que sorpresa. La tecnología es la misma; lo único que ha cambiado es el foco. En este contexto, no es casualidad que el Gobierno acabe de anunciar el anteproyecto de ley para regular los deepfakes, especialmente aquellos que afectan a la imagen, el honor y la intimidad de las personas. Aunque se llevaba trabajando en él, su anuncio se ha acelerado ante la presión mediática y social.
El caso Grok no es una anomalía ni técnica ni ética. Es, sencillamente, el ejemplo más visible de lo que ocurre cuando los sistemas generativos combinan una enorme potencia tecnológica, una facilidad de uso extrema y la necesidad del ser humano de fantasear con personas que no están al alcance de su ámbito de relaciones personales. De hecho, OpenAI anunció hace ya un par de meses que permitirá la creación de textos e imágenes denominados spicy ("picantes"), apelando a la idea de que a los adultos hay que tratarlos como adultos. Un argumento con cierto barniz filosófico, pero cuya base real es mucho menos elevada y mucho más mundana.
En internet, el contenido para adultos no es un fenómeno marginal. Numerosas estimaciones sitúan en torno a un tercio del tráfico global de Internet el vinculado a este tipo de contenidos, y se calcula que casi una décima parte de los sitios web existentes están dedicados a la pornografía o al contenido para adultos. De hecho, contamos con datos objetivos como que el tráfico de las grandes plataformas de vídeo para adultos supera con creces las visitas a servicios generalistas de streaming como Netflix o Amazon Prime. Nada nuevo bajo el sol. En un contexto de fuga de usuarios de OpenAI hacia modelos menos restrictivos (como el de Grok), no resulta difícil entender por qué se ha llegado a permitir la creación de estas imágenes: no quedarse fuera del reparto del pastel de un tipo de contenido que genera millones de euros anuales.
Eso sí. Puesto que no hay nada malo que carezca de algún elemento positivo, otra noticia jurídicamente relevante a consecuencia de este revuelo mediático (además del anteproyecto) es que la Agencia Española de Protección de Datos (AEPD) ha publicado una guía específica sobre el uso de imágenes de terceros en sistemas de IA. En apenas ocho páginas, el documento no descubre ningún problema nuevo, pero sí ordena jurídicamente un riesgo que llevaba mucho tiempo desplegado sin referencias claras para usuarios, personas afectadas y operadores.
Es importante destacar que la guía de la AEPD pone de relieve algo tan básico como que la imagen es un dato personal, incluso cuando ha sido generada o modificada por un sistema de IA. Y, en consecuencia, subir una imagen de un tercero a un sistema de IA ya constituye un tratamiento de datos, aunque el resultado no se publique, el uso sea privado o incluso no exista intención alguna de causar daño. La guía acierta al desplazar el foco mediático hacia lo realmente importante. El problema no está solo en la difusión, sino en la pérdida de control por parte de quien ve su imagen afectada. La sexualización sintética de nuestras imágenes no es una anécdota, sino un indicador del gran riesgo que todos corremos en el contexto actual.
Por todo ello, debemos ver como algo positivo tanto el anuncio del anteproyecto como la publicación de esta guía. Internet no empezó ayer. La inteligencia artificial, tampoco. Y el contenido para adultos existirá siempre. Pero es de celebrar que, por fin, alguien haya decidido llamar a las cosas por su nombre. Y eso, desde Tecnología y Derecho, es lo verdaderamente relevante.
Marco Antonio Mariscal Moraza
Abogado y Doctor en Derecho. Profesor de Derecho Civil en la UAH.
Director de Transformación Tecnológica en AISGE
Fuente: AISGE

