ChatGPT y traumas: el costo oculto del entrenamiento de la IA

Según algunas denuncias, varios trabajadores involucrados en el entrenamiento de ChatGPT estuvieron expuestos a contenidos tan tóxicos, que varios de ellos desarrollaron fuertes episodios de estrés, ansiedad y depresión, con los que aún están lidiando.

Por menos de un dólar la hora, los trabajadores de Open AI en Nairobi, Kenia, capacitaron a los modelos de ChatGPT y quedaron en estado de shock. Su tarea consistió en identificar el contenido que la herramienta debía evitar en sus conversaciones con los usuarios.

Una reciente denuncia muestra el caso de Richard Mathenge, un extrabajador de Open AI en Kenia, quién pensó que había conseguido el empleo perfecto cuando comenzó a entrenar al modelo de ChatGPT en 2021.

Durante nueve horas al día, cinco días a la semana, Mathenge dirigió un equipo que enseñó al modelo sobre el contenido explícito que debía evitar. La continua exposición de los trabajadores a este tipo de elementos, los dejaba exhaustos, agobiados y con una mala paga, según reportó la revista Time.

Mientras trabajaban vieron repetidamente textos explícitos y los etiquetaron: material de abuso sexual infantil, contenido sexual e ilegal entre otros. Mucho de lo que leyeron los horrorizó. Algunos de esos contenidos eran tan ofensivos que Mathenge se negó a hablar de ellos.

Esta clase de ‘moderación de contenido’ ha sido crucial para que los bots como ChatGPT y Bard funcionen y ofrezcan conversaciones ‘agradables’ (lo menos ofensivas o extrañas posible).

Se trata de un proceso llamado aprendizaje de refuerzo a partir del feedback humano (Reinforcement Learning from Human Feedback, RLHF). Los bots se vuelven más inteligentes a medida que los humanos etiquetan el contenido, enseñándoles cómo optimizar sus respuestas en función de esos comentarios.

La exposición repetida a texto explícito, provocó insomnio, ansiedad, depresión y ataques de pánico a Mophat Okinyi, uno de los compañeros de Mathenge. Tan fuertes fueron las consecuencias de este trabajo, que terminó perdiendo su matrimonio.

“Me sienta bien ver a ChatGPT volverse famoso y ser utilizado por muchas personas en todo el mundo, pero hacer que hoy sea seguro, destruyó a mi familia. Destruyó mi salud mental. Todavía estoy luchando con el trauma”, aseguró.

Después de todo esto, Mathenge y sus colegas se sienten orgullosos del trabajo que realizaron. Hoy, ChatGPT se niega a producir las escenas explícitas que el equipo ayudó a eliminar y emite advertencias sobre actos sexuales potencialmente ilegales.

No obstante, este ejemplo planteó un nuevo debate sobre la importancia de la salud mental para los trabajadores de la industria de la IA. ¿Cómo serán los próximos desarrollos de IA? ¿Qué costo tendrán que asumir los trabajadores para garantizar herramientas tecnológicas seguras? La discusión apenas comienza.