¿Alguna vez ha pensado en los responsables de filtrar el contenido gráfico y sensible en redes sociales como Facebook? Esta es la historia de las terribles condiciones a las que Meta y Sama sometían a sus moderadores de contenido.
La democratización de la información con la llegada de la World Wide Web en los noventa trajo cosas positivas y negativas. Por un lado, destruyó barreras geográficas y permitió que habitantes de todo el mundo interactuaran con diferentes culturas.
Por otro lado, dio rienda suelta para que los usuarios compartieran toda clase de opiniones y contenido. Desafortunadamente, esto incluye contenido gráfico.
De esta forma, el trabajo del moderador de contenido es tan antiguo como la misma World Wide Web. Incluso antes de la llegada de las redes sociales, foros y chat rooms —espacios virtuales en los que los internautas podían interactuar entre sí— tenían usuarios responsables de curar y eliminar contenidos que no se ceñían a las reglas.
Sin embargo, fue con el nacimiento de Facebook en 2004 que el internet como espacio de interacción se volvió masivo. Los moderadores de contenido ya no tenían que lidiar con decenas o cientos de publicaciones, sino con millones. En consecuencia, la tarea de filtrar el contenido gráfico de una plataforma como Facebook es desgastante.
El caso de Sama, la compañía que moderaba los contenidos de Facebook en África del Este
En enero de 2023, Sama —compañía especializada en etiquetar contenido para entrenar inteligencia artificial (IA) previamente encargada de la moderación de contenidos en Facebook— anunció que dejaría de prestar sus servicios a Meta y demás redes sociales. Este anuncio se dio pocos meses después de que Daniel Motaung —exmoderador de contenidos en Facebook, despedido en 2019— revelara en un reportaje de Time las condiciones a las que Sama y Meta sometían a sus empleados.
En mayo de 2023, Motaung demandó a ambas compañías. Entre las denuncias destacan los pagos irregulares y la falta de apoyo psicológico. Al fin y al cabo, su trabajo implicaba clasificar contenido gráfico. Este va desde pornografía hasta tortura.
En marzo, Sama despidió a 260 moderadores. Según ellos, esto se dio por las quejas ante las pobres condiciones de trabajo y sus esfuerzos para formar un sindicato. Por la terminación injusta de su contrato, un grupo de 184 moderadores —representados por el grupo Foxglove— ha tomado acciones legales contra Meta, Sama y Majorel.
Esta última es la contratista que reemplazó a Sama. Según los antiguos moderadores, también hubo discriminación hacia los exempleados que querían trabajar en Majorel.
En una entrevista con BBC, Wendy Gonzalez —CEO de Sama— confesó que no habría aceptado el trabajo de haber sabido lo que implicaría y que aprendió de la experiencia.
Gonzalez también dio a conocer que la compañía ahora tiene una política de rechazar todo trabajo que implique contenido dañino, armas de destrucción masiva y vigilancia policial. Sin embargo, la CEO no ofreció respuesta cuando se le interrogó si creía que los contenidos a los que estaban expuestos sus empleados eran dañinos.
¿Un trabajo apto para la inteligencia artificial?
A pesar de las consecuencias, este trabajo sigue siendo necesario. Como señala Trevin Brownie, uno de los empleados que Sama despidió en marzo, los moderadores de contenido son la primera línea de defensa para proteger a los usuarios de contenidos perturbadores. Esto fue especialmente cierto durante la pandemia, cuando millones de usuarios dependían de las redes sociales para informarse y mantenerse en contacto.
Ante esta situación, la IA se muestra como la solución más evidente. No obstante, el entrenarla implica seguir sometiendo a seres humanos como Daniel Motaung y Trevin Brownie a contenidos perturbadores. ¿Qué se puede hacer en este caso?
Lo primero es que compañías como Sama y Meta garanticen condiciones dignas de trabajo para sus empleados sin importar de dónde provengan o trabajen. De esta forma, los responsables de esta tarea tendrán el apoyo psicológico que merecen.
Ese es el objetivo de las demandas de Motaung y Foxglove. En algún momento, preferiblemente antes que después, ningún ser humano tendrá que ser sometido a algo así.