Madrid, 22 de diciembre de 2025
El pasado 2 de octubre de 2025, con el patrocinio de la Fundación AISGE, organizamos en el Área de Derecho penal de la Universidad de Alcalá un evento académico de gran relevancia: el Congreso Internacional "Derecho penal 4.0: el Derecho penal en la cuarta revolución industrial". El congreso reunió a juristas, filósofos, tecnólogos y representantes institucionales para abordar una de las cuestiones más urgentes del presente: cómo debe responder el derecho penal ante la disrupción tecnológica provocada por la inteligencia artificial (IA) y su impacto en el mundo del trabajo, la privacidad mental, la justicia, la ciberseguridad y la propiedad intelectual.
Desde la inauguración, a cargo de destacadas figuras del ámbito jurídico y académico, quedó claro que este congreso no pretendía limitarse a una reflexión teórica, sino ofrecer herramientas para comprender y regular una realidad en transformación. En un contexto marcado por la aceleración tecnológica, la automatización del trabajo y la creciente intervención de algoritmos en decisiones humanas, las intervenciones ofrecieron una mirada crítica, interdisciplinar y anticipatoria. Se trató de ofrecer una mirada al futuro.
Desde este enfoque surgieron preguntas fundamentales. Eric Hilgendorf, el profesor alemán especialista en nuevas tecnologías, nos planteaba si la IA debía considerarse simplemente una herramienta o si, por el contrario, nos encontramos ante una nueva forma de agente autónomo. Esta no es una cuestión meramente teórica: tiene profundas implicaciones éticas y jurídicas. Si las máquinas pueden actuar de manera autónoma, ¿podrían entonces asumir algún tipo de responsabilidad jurídica? ¿O seguiríamos considerando responsables a los seres humanos que diseñan, entrenan o implementan los algoritmos? La respuesta actual sigue haciendo responsable al ser humano; pero la situación podría cambiar radicalmente en un futuro no tan lejano, especialmente si tenemos en cuenta los avances del transhumanismo y la posible y futura llegada de la "revolución neuro-algorítmica", una quinta revolución tecnológica, que promete transformar por completo la relación entre mente y máquina, creando seres híbridos: cíborgs, humanoides, seres humanos mejorados. En este contexto, las investigaciones en neurociencia adquieren un papel clave, ya que podrían redefinir lo que entendemos por conciencia, autonomía, responsabilidad y, en última instancia, por persona.
Una moral tambaleante
Pero la inteligencia artificial también está transformando una de las dimensiones más esenciales del ser humano: el trabajo, ese motor silencioso que ha impulsado el progreso de la humanidad y de sus revoluciones. El concepto mismo de trabajo está cambiando, y con él, uno de sus pilares más firmes:la moral del esfuerzo. Hoy se tambalea - no sabemos aún si para adaptarse o para desaparecer -, dando paso quizá a una nueva ética del esfuerzo, o, tal vez, a su definitiva desaparición. La reflexión no se quedó en el plano técnico-jurídico, sino que trascendió a planteamientos filosóficos muy necesarios en esta revolución que toca los cimientos y esquemas éticos de la humanidad. Fernando Aguiar, investigador con larga trayectoria en el CSIC, nos hizo reflexionar sobre el valor moral del trabajo y en la relación entre el esfuerzo y la confianza, recordando que el ser humano tiende a confíar en quien se esfuerza. Pero ¿qué ocurre con este vínculo en una era en la que los robots y la inteligencia artificial asumen tareas que antes eran exclusivamente humanas? Su intervención abrió un debate necesario sobre la redefinición del mérito, el esfuerzo, la confianza y la dignidad laboral en el nuevo paradigma tecnológico. ¿Estamos asistiendo al fin del trabajo como pilar de identidad personal y social? ¿Qué nuevas formas de reconocimiento y realización surgirán? ¿Estamos acaso acariciando el viejo sueño de la humanidad, una evolución desde el trabajo penoso al trabajo creativo? Esta línea de pensamiento entronca directamente con los desafíos que enfrenta el derecho penal del trabajo, especialmente en lo que respecta a la protección de los derechos de los trabajadores frente a nuevas formas de discriminación, de ataque a su intimidad, de selección de personal en el trabajo (utilizando sistemas de puntuación) o, paradójicamente, nuevas formas de explotación que se ocultan tras el velo de la automatización. Todo ello refuerza su compromiso con el estudio de estas nuevas formas de criminalidad y precarización.
Las mesas redondas de la jornada ofrecieron un panorama amplio y detallado de los distintos retos que plantea la IA para el derecho penal. Paz de la Cuesta, una de las primeras investigadoras en la materia en España, nos adentró en el marco regulatorio del Reglamento de Inteligencia Artificial centrándose agudamente en las prohibiciones (art. 5 del Reglamento). Estas prohibiciones buscan protegernos del uso abusivo de los sistemas de IA por parte de quienes, aprovechando la brecha digital, podrían verse tentados a emplearlos con fines poco o nada éticos como desinformar, manipular y engañar a la población, explotar vulnerabilidades de sus congéneres, aplicar sistemas de puntuación social que generen discriminación, predecir conductas delictivas de personas, superando así la ficción de Minoriy Report de Spielberg, ampliar bases de datos de reconocimiento facial, inferir las emociones o categorizar o identificar a las personas por datos biométricos. La persona, apuntaba De la Cuesta con una expresión muy plástica, se ha convertido en una "mina de datos". Eduardo Demetrio, dedicado en la última década al análisis de las neurociencias y su implicación en el derecho penal, nos zambulló en una apasionante cuestión: el cerebro en el punto de mira del derecho penal y las implicaciones del llamado neurocontrol. Este fenómeno pone en jaque a los neuroderechos, entre ellos nuestra privacidad mental, entendida como la expresión más profunda de la libertad, la autonomía y la autodeterminación que definen al ser humano. El derecho penal se enfrenta así al desafío de proteger esa esfera íntima de la mente, quizá incluso mediante la creación de nuevos tipos delictivos, para evitar que el capitalismo de la vigilancia, amparado en el discurso de la seguridad, penetre en los rincones más privados de nuestra conciencia con fines manipuladores. Si no se establecen límites claros, corremos el riesgo de perder nuestra identidad personal y genuina, diluyéndonos en una era donde la mente podría dejar de pertenecernos por completo.
Una IA que redacta sentencias Antonio del Moral, magistrado del Tribunal Supremo, nos invitó a reflexionar sobre la diferencia entre una justicia artificial y una justicia con corazón, recordándonos la importancia de preservar la humanidad en el ámbito de la justicia incluso en tiempos de IA. En el contexto del enjuiciamiento penal, subrayó la necesidad de que el componente humano siga presente en cada sentencia, para evitar que la aplicación mecánica de un algoritmo - tan "ciego", aunque replicando sesgos, como la figura alegórica de la justicia - conduzca, paradójicamente, a la injusticia. La IA puede ser una herramienta valiosa, pero nunca debe reemplazar el razonamiento objetivo matizado por la percepción sensitiva-significativa del caso concreto que solo un ser humano puede aportar al impartir justicia. Por ello, el principio de human in the loop …€”la intervención humana en los procesos decisionales automatizados…€” resulta esencial. De hecho, mientras escribo estas líneas, me ha llegado la noticia de que los propios tribunales han comenzado a marcar límites.
Así en Argentina, la Cámara Judicial de la Circunscripción de Esquel anuló recientemente una sentencia dictada por un tribunal inferior al comprobar que se había recurrido a la IA para redactar parte del fallo. Un ejemplo claro de cómo la justicia debe seguir teniendo corazón. Especialmente dinámica fue la intervención de Eloy Velasco, magistrado de la Audiencia Nacional, quien destacó la creciente complejidad de la investigación penal ante fenómenos como la encriptación, el anonimato digital, los problemas de prueba, la deslocalización… y la necesidad de la colaboración público-privada en entornos tecnológicos. En su visión, la IA no solo plantea amenazas, sino también oportunidades para una justicia penal más eficiente, siempre que se garantice el respeto a los derechos fundamentales.
Uno de los debates más actuales y estimulantes tuvo lugar en la última mesa redonda, dedicada a explorar la relación entre la IA, la creatividad y el derecho de autor, por un lado, y la moderación y la libertad de expresión por otro. Abel Martín Villarejo y Marco Antonio Mariscal Moraza, representantes de la Fundación AISGE, plantearon un dilema esencial: ¿es la IA una herramienta que amplifica la creatividad humana o una amenaza para los creadores? ¿Y hasta qué punto la moderación de contenidos compromete la libertad de expresión? Las tensiones entre el entrenamiento de los modelos de lenguaje (LLM) y los derechos de autor se abordaron desde una perspectiva tanto jurídica como práctica. Se discutió la legitimidad del uso masivo de obras protegidas para alimentar algoritmos y se plantearon escenarios futuros sobre la posible regulación de esta práctica. Asimismo, Mariscal puso el foco en la figura de los moderadores y verificadores de contenido, actores clave en la era digital, guardianes de los derechos de los creadores, evitando la difusión de material ilícito. Ahora bien, dependiendo de cómo se regule su labor, pueden convertirse en garantes de los derechos fundamentales o, por el contrario, en agentes de censura que debiliten la libertad de expresión y la creatividad en ausencia de un marco normativo claro y por el uso de sistemas automáticos opacos. Además, llamó la atención sobre las condiciones laborales de estos nuevos profesionales y las consecuencias psicológicas derivadas de su trabajo, que a menudo implican una alta exposición a contenidos sensibles o perturbadores.
A lo largo de una intensa jornada, el Congreso "Derecho penal 4.0" logró visibilizar la magnitud de los desafíos que plantea la cuarta revolución industrial. La IA no es solo una tecnología disruptiva, sino un fenómeno social y jurídico que exige una respuesta transversal. La creación, la protección de los derechos fundamentales, el concepto de persona, la responsabilidad penal, los derechos laborales, la libertad de expresión, la protección de la propiedad intelectual… ya no pueden entenderse sin considerar el papel de los algoritmos.
El éxito de este congreso reside no solo en la calidad de las intervenciones, sino en su capacidad para generar preguntas de fondo: ¿hacia que concepto de persona avanzamos? ¿Qué clase de trabajo se diseña para el ser humano en el mundo digital? ¿Cómo se debe proteger la intimidad de la persona y la recogida de datos? ¿Cuándo se debe solicitar el consentimiento de la persona y qué requisitos debe cumplir? ¿Quién responde cuando una IA causa daño? ¿Cómo proteger la creatividad humana en un entorno automatizado? ¿Es posible mantener un derecho penal garantista en un mundo hiperconectado?
Lejos de clausurar un debate, este encuentro ha abierto una conversación urgente, que deberá continuar en la academia, en los tribunales y en las instituciones legislativas. El derecho penal 4.0 ya está entre nosotros. La tarea pendiente es construir un marco normativo que equilibre el proceso de innovación con un respeto a los derechos fundamentales.
Al mismo tiempo, no debemos olvidar que la IA es una herramienta cuyo uso responsable exige una supervisión humana constante, precisamente para evitar el riesgo de nuestra deshumanización. En este contexto, el derecho penal debe contribuir a que esta "re-volución" tecnológica no se "re-vuelva" contra su propio creador, promoviendo un modelo de responsabilidad jurídica integral en el que el uso ético y prudente de la tecnología se mantenga como un objetivo permanente y transversal.
Raquel Roso Cañadillas
Profesora Titular/Catedrática acreditada de la Universidad de Alcalá de Henares
Fuente: Aisge

