Hace aproximadamente dos años tuve la oportunidad de ver un fantástico documental titulado “The cleaners”, dirigido por Moritz Riesewieck y Hans Block. Este documental hablaba sobre los llamados moderadores de contenidos, un concepto que nos puede resultar familiar en varios ámbitos, pero el cual ha adquirido una vital importancia en el contenido digital y más concretamente en las Redes Sociales.

NRW-Filmpremiere „The Cleaners – Im Schatten der Netzwelt“

Miles de moderadores de contenido trabajan las 24 horas para garantizar que empresas como Facebook, YouTube, Google y otras plataformas en línea permanezcan libres de contenido tóxico. Eso puede incluir trolling, fotos o videos sexualmente explícitos, amenazas violentas y mucho más. Estos filtros que podríamos pensar que están automatizados por algoritmos, en muchos casos, todavía actualmente, son humanos que bajo un criterio establecido deben visualizar, explorar y filtrar todo tipo de material tóxico que inunda las redes.

Este nuevo rol dentro de las grandes compañías de internet destaca la importancia de tener una decisión humana detrás de los elaborados algoritmos de filtro de contenidos.

Aunque es un trabajo donde hay sectores menos tóxicos en su material y su realización no es están dañina emocionalmente, en este articulo si me gustaría enfocarlo a ese parte de moderación en las RRSS, donde se va más allá de ver contenido y decidir “borrar o ignorar”, una dedicación que implica ver día tras día material con altas cargas de violencia, sexualidad, dolor y todo tipo de comentarios y ensañamientos, entre otras cosas. Por desgracia hay tantas zonas grises que quedan en estos contenidos, a los cuales los algoritmos de Inteligencia Artificial les resulta imposible de clasificar. Muchas veces estos moderadores deben decidir siguiendo su propio instinto y criterio. Resulta increíble que estas difíciles decisiones se adopten de manera tan ligera teniendo en cuenta el impacto que pueden tener, puesto que una gran parte de la población se informa a través de las redes sociales.

Parece razonable, por ejemplo, que ciertas plataformas puedan prohibir videos que muestren violencia sangrienta en la vida real. Pero ¿qué pasa cuando ese video muestra el momento en que un ataque aéreo ilegal arrasa un hospital? Cuando los ciudadanos de países devastados por la guerra no pueden mostrar al mundo las atrocidades que están ocurriendo en su país. Cuando se eliminan este tipo de contenidos, el mundo puede ignorar el conflicto.

Pero no solo podemos situarnos en este contenido violento, si no también nos encontramos otros escenarios, donde ciertos cuadros o material histórico que se usa de forma educativa es clasificado de forma incorrecta por estos algoritmos debido a su desnudez o actos de racismo

En estos momentos que se aboca por un internet seguro y se focaliza en el lema de entre todos podemos hacer un internet mejor, debemos ser conscientes de que no todo vale y las redes sociales no puede convertirse en cajón desastre, donde se puede juzgar, condenar, insultar y subir cualquier tipo de contenido sin importar el objetivo ni las consecuencias.

Desde 2018 las grandes compañías, debido a la importancia cada vez mayor de la comunicación digital y en concreto las redes sociales, quieren controlar aún más la influencia que puede causar este tipo de contenido tóxico. De aquí nacen estos “limpiadores” que bajo una bandera de imparcialidad toman la decisión de borrar o ignorar lo que pasa ante sus ojos.

Pero durante cuánto tiempo nos podremos peguntar la influencia y responsabilidad que pueden tener ciertas empresas sobre el contenido que transmiten. ¿Estos moderadores de contenido trabajan bajo una imparcialidad común?, ¿Hay ciertos criterios que deben cumplir al tomar su decisión? Es difícil eludir estas preguntas cuando se trata de plataformas privadas que gestionan el contenido que quieren mostrar a millones de personas.  

Como conclusión se puede entender la vital importancia que tienen estos limpiadores, pero a la vez el precio que se paga de forma emocional. Debemos concluir que esta nueva profesión ha surgido por una necesidad que hemos creado nosotros mismos y en la mayoría de las veces por la falta de valores digitales, de aquí la importancia de trabajar desde edades tempranas la llamada Salud Digital, educar en ámbitos como el respeto, la empatía y el pensamiento crítico desde un punto de vista digital es algo fundamental.