Madrid, 21 de agosto de 2025
Los moderadores de contenido están ahí, existen, pero solo hablamos de ellos cuando los criticamos porque nos eliminan un comentario o un selfi que a nosotros nos parecía apropiado pero que, al parecer, infringía algún tipo de política de la red social de turno. Realmente poco se habla de esta figura y de quienes sostienen el lado más oscuro del mundo digital.
Los moderadores de contenido son la última barrera que separa al usuario de aquello que es intolerable. A raíz de los comentarios publicados esta semana tras la querella interpuesta contra Meta por parte de 29 moderadores contratados por la empresa Telus International Services, vuelve a ponerse sobre la mesa una realidad silenciada. En su trabajo diario no solo evitan la infracción de los derechos de propiedad intelectual mediante el bloqueo de la subida de material protegido, sino que también se enfrentan a la visualización de la violencia más extrema. Detectan y eliminan contenidos que jamás debieron ser subidos a la red. Asesinatos grabados en directo, mutilaciones, violaciones, discursos de odio, pornografía infantil, tortura. Lo hacen en soledad, bajo presión y desde la sombra.
Evidentemente, ante este panorama y el material que se ven obligados a visualizar, el uso indebido de obras protegidas por derechos de autor casi parece algo menor. Pero no lo es. Cada vulneración representa también una forma de violencia, quizás más sutil pero igualmente corrosiva, que despoja al creador de sus derechos y pervierte el sentido de su obra.
Guardias de la noche
Por ello, en estas líneas hemos de romper una lanza a favor de quienes ejercen esta profesión. Gracias a ellos, los derechos de los autores son defendidos en un entorno virtual donde todo se reproduce, se deforma y se viraliza en cuestión de segundos. Son una suerte de guardias de la noche que custodian el muro que separa a la sociedad del caos. Marcan la línea entre el entretenimiento y la más absoluta barbarie. Ayudan a los algoritmos a identificar lo que ni ellos son capaces de detectar.
Por desgracia, ni este muro ni está construido de piedra y hielo ni entre sus defensores se encuentran hijos bastardos del Rey del norte. Aquí hablamos de seres humanos que sufren en sus propias carnes el mal hacer de esta sociedad. La querella presentada por los moderadores viene a poner voz al impacto silencioso que todo esto acarrea sobre su salud mental, consecuencia directa del uso irresponsable y brutal de la tecnología que hacemos los usuarios. Se reclaman daños morales de enorme calado, provocados por convivir cada día con la parte más detestable, violenta y degradante que puede mostrar una pantalla. Siguiendo con nuestro símil, no nos damos cuenta de que ese muro es cada vez más difícil de mantener en pie, custodiado por unos caballeros negros cada vez más diezmados, agotados y abandonados a su suerte.
Para el público general, el audiovisual se percibe como un vehículo para la cultura, la información o el entretenimiento. Sin embargo, tal y como estamos viendo, el ser humano no siempre lo utiliza con fines nobles. El cine se inventó con vocación artística, pero ya en tiempos de Alfonso XIII se rodaba pornografía, que a la vista del contenido que hoy circula en redes casi parece inocente. Con la llegada de la inteligencia artificial vemos cómo proliferan los deepfakes (vídeos, audios e imágenes creados mediante IA que parecen totalmente reales). Su amenaza no es solo contra la verdad, sino contra la propia dignidad de las personas.
El acceso masivo a internet apenas tiene 30 años; la mensajería instantánea, poco más de 15. Nos falta perspectiva, pero sobre todo nos falta ética. Urge enseñar alfabetización digital y ética tecnológica tanto a niños como a adultos. Y la querella a la que aludimos no solo denuncia a una empresa. Ha expuesto, sin anestesia, lo que somos capaces de hacer como sociedad cuando dejamos la tecnología carente de brújula moral o ética. Determinados conceptos jurídicos que hasta hace poco parecían relativamente estables se encuentran hoy al límite. Jamás el derecho a la propia imagen había sufrido una erosión tan profunda.
Nadie está exento de que le clonen la voz o de que, usando su rostro, se generen vídeos en los que aparece, sin saberlo ni quererlo, cometiendo robos, pronunciando barbaridades o participando en escenas pornográficas. No es ciencia ficción y ya ha ocurrido, incluso con menores, como fue noticia hace apenas unos meses. No se trata solo de legislar, que también, sino de educar.
Nos adentramos en un terreno cada vez más pantanoso donde comienza a costarnos distinguir entre lo real y lo artificial, entre lo que parece y lo que es. La tecnología avanza mu yrápido en un momento en que la ética se detiene. Volviendo a la propiedad intelectual, no podemos olvidar que la inteligencia artificial entrena sus algoritmos a partir de creaciones humanas, al menos por ahora. Obras, estilos, voces y estructuras producidas por artistas reales se convierten en materia prima para sistemas que, muchas veces, operan sin pedir permiso ni ofrecer reconocimiento. Los creadores están más expuestos que nunca a que sus derechos sean vulnerados, y lo peor es que muchas veces ni siquiera llegan a saberlo. Sin embargo, ahí sigue, ojo avizor, nuestra guardia de la noche: los moderadores.
Entre las atrocidades que se ven obligados a revisar a diario también detectan y evalúan cuándo un contenido infringe los derechos de autor, cuándo se ha apropiado indebidamente de una obra, cuándo se ha convertido sin consentimiento la creación en una mera mercancía. Lo hacen desde la sombra, con escaso reconocimiento y en muchos casos bajo condiciones laborales indignas. Son empleados de subcontratas que las grandes plataformas utilizan para cumplir formalmente con las exigencias legales y, al mismo tiempo, diluir su propia responsabilidad.
Esperemos que ahora, a raíz de esta querella, pensemos también en ellos cuando hablemos del metaverso o naveguemos por la red. Porque sin su trabajo silencioso y, como se ha demostrado, también doloroso, los mundos virtuales que nos rodean se convertirían en sencillamente inhabitables. Por mucho que se legisle o que la inteligencia artificial avance, el contenido siempre necesitará ser revisado por un humano, con consciencia de lo que ve. Capaz de distinguir el matiz, de interpretar la intención, de ejercer juicio. Porque si lo que pretendemos es construir una sociedad digital sobre el sufrimiento humano, estamos ante la esclavitud 1.0: la misma de siempre, pero con una nueva interfaz.
Abel Martín
Secretario General de Latin Artis y Director General de Aisge
Fuente: Aisge