Madrid, 12 de junio de 2025
Cualquier empresa que esté utilizando herramientas como ChatGPT o cualquier otro sistema de inteligencia artificial (en lo sucesivo, IA), debe prestar atención a algo importante y obligatorio: formar a las personas que las usan. Y no hablamos solo de enseñarles a hacer prompts o de darles un tutorial rápido, sino de una verdadera obligación de formación que pesa sobre cualquier empresa respecto de sus trabajadores.
Desde el 2 de febrero de 2025, el Reglamento de la Unión Europea 2024/1689, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de IA (en lo sucesivo, Reglamento de IA) exige, en su artículo 4, que cualquier organización que implemente o desarrolle IA garantice que su personal —y cualquier otra persona que use estas herramientas en su nombre— tenga un nivel suficiente de “alfabetización en IA”. Si no lo hace, puede enfrentarse a sanciones a partir de 2026.
Consecuentemente, el artículo 4 del Reglamento de IA plantea un gran reto para las empresas que utilicen cualquier sistema de IA. Por ello, hemos considerado oportuno verter un poco de luz sobre este artículo y sobre este aspecto formativo, tal vez desconocido, de la nueva reglamentación de la UE en materia de IA, lo que implica analizar pormenorizadamente las recientes FAQS publicadas por la Comisión Europea en relación con el referido artículo.
(i) ¿Qué significa “alfabetización en IA”?
En pocas palabras, es asegurarse de que las personas entienden lo que están usando. Según el Reglamento de IA, se trata de que el personal de la empresa tenga los conocimientos, habilidades y comprensión necesarias para:
- Usar sistemas de IA de forma informada y segura.
- Identificar oportunidades, pero también riesgos.
- Ser consciente del impacto que puede tener la IA, tanto dentro como fuera de la organización.
(ii) ¿A quién aplica esta obligación?
Se aplica a todos los empleados que estén involucrados en el uso de IA dentro de la empresa. Asimismo, se incluyen freelancers, proveedores de servicios, clientes que interactúan con el sistema o incluso personal externo que opere en nombre de la organización. Si esas personas usan IA en el día a día, deben saber qué están haciendo, por qué, y cuáles son los límites.
(iii) ¿Qué debe incluir una formación básica en IA?
La Comisión Europea señala algunas pautas mínimas que toda empresa debe seguir. Estas se agrupan en cuatro áreas clave:
1. Entender qué es la IA (y cómo se usa en la empresa)
No es suficiente con decir que se utiliza IA. Hay que explicar qué es exactamente, cómo funciona, qué herramientas específicas se están usando en la organización y con qué fines. De igual modo, se deben abordar los beneficios (eficiencia, productividad, innovación), pero sin esconder los riesgos: sesgos, errores, falta de transparencia o alucinaciones (como las que puede generar ChatGPT).
2. Definir el papel de la empresa
Cada empresa debe tener claro si actúa como proveedora de sistemas de IA (es decir, los desarrolla o entrena), o como implementadora (los utiliza, pero no los crea). Esta diferencia influye en el tipo de responsabilidad legal y en el tipo de formación necesaria. No es lo mismo formar a quien programa una IA que a quien simplemente la usa en atención al cliente.
3. Evaluar el riesgo de los sistemas de IA utilizados
Algunas herramientas de IA tienen un riesgo bajo, pero otras —como las que se usan en medicina, recursos humanos o finanzas— pueden tener consecuencias más graves si se usan mal. Si una empresa usa IA considerada “de alto riesgo” según el Reglamento de IA, tendrá que ofrecer formaciones más profundas, que incluyan aspectos como seguridad, supervisión humana y mitigación de errores.
4. Adaptarse a las personas y al contexto
No todo el personal laboral necesita el mismo nivel de formación. Un ingeniero de datos no requiere lo mismo que un administrativo o un abogado. Además, hay que tener en cuenta el sector: no es igual formar a alguien que usa IA en salud que a alguien que la usa para generar texto en marketing. Por eso, la formación debe ser flexible y adaptada a cada rol o perfil del puesto de trabajo.
(iv) ¿Por qué esto es una cuestión ética y legal?
Los tres primeros puntos no solo responden a una norma: tienen implicaciones éticas. Formar a las personas en IA también significa proteger la privacidad, la dignidad y los derechos de quienes pueden verse afectados por el uso de estas tecnologías. Además, una plantilla bien formada reduce errores, evita abusos y mejora la confianza interna y externa.
(v) ¿Y si solo usa ChatGPT para escribir textos o traducir?
También aplica. La Comisión Europea ha sido clara: si los empleados usan herramientas como ChatGPT, aunque solo sea para redactar emails o traducir documentos, necesitan entender los riesgos, como las famosas “alucinaciones” o errores en los contenidos generados o la “subida” de información sensible a estos sistemas. Resulta necesario que las empresas se aseguren de que sus empleados entiendan lo básico: qué puede hacer la herramienta, qué no, y qué pasa si confían ciegamente en ella.
(vi) ¿Qué formato debe tener esta formación?
No hay un único formato válido. Pueden tratarse de talleres, cursos online, sesiones internas, guías, vídeos, etc. Lo relevante es que esté: Diseñado según el nivel de cada persona (no todo el mundo necesita el mismo nivel de profundidad). Basado en los riesgos concretos del uso que realiza cada persona de la IA. Documentado: guardar registro de todas las formaciones que realice la empresa.
(vii) ¿Qué pasa si la empresa no cumple?
A partir del 3 de agosto de 2026, las autoridades nacionales podrán imponer sanciones si detectan que una empresa no ha formado debidamente a su personal.
Reflexiones finales
En nuestra opinión, formar al personal de una organización o empresa en IA no es un lujo ni una idea para el futuro. Al contrario, se trata de una exigencia actual, legal y estratégica. Por tanto, cualquier empresa que ya haga uso de herramientas como ChatGPT necesita asegurarse de que quienes las manejan lo hacen con conocimiento, responsabilidad y sentido crítico.
Por ende, cumplir con el artículo 4 del Reglamento de IA no solo protege a las empresas ante posibles sanciones, sino que también ayuda a construir una organización más sólida, informada y preparada para el entorno digital que ya empieza a consolidarse. Pero, sobre todo, la formación permitirá hacer un uso adecuado, responsable y ético de estas herramientas, con respeto a los derechos ajenos, tanto fundamentales como intelectuales o de cualquier otra índole.
Alexandre Sánchez Planas
Jurista. Área de Negocio y Transformación Tecnológica en AISGE
Fuente: AISGE. Gráfico: AISGE