Los modelos de lenguaje de IA pueden ser tan sesgados como los seres humanos

Existen trabajos en los que se espera cierto nivel de imparcialidad. Por supuesto, esto puede ser un tanto complicado al tener en cuenta lo ‘políticos’ que pueden ser los seres humanos. Esto ha llevado a varios entusiastas de la inteligencia artificial (IA) a proponerla como un sustituto para empleados y ejecutivos sesgados por sus preferencias políticas. Al parecer, los políticos tampoco están a salvo.

Sin embargo, la IA ha heredado la misma tendencia política que sus creadores.

Según un estudio conducido por la Universidad de Washington, la Universidad de Carnegie Mellon y la Universidad de Xi’an Jiaotong, los modelos de lenguaje extenso (LLM) tienen sus propios sesgos políticos. Mientras que ChatGPT y GPT-4 se inclina por la izquierda libertaria, LLaMA —la IA de Meta— es de derecha autoritaria.

¿Pero cómo se llegó a esta conclusión?

 ¿Cómo fue el experimento? 

En la primera fase, los investigadores preguntaron a 14 modelos de lenguaje extenso su posición con respecto a 62 temas políticos. Estos incluyeron el feminismo y la democracia. Según sus respuestas, las IA fueron ubicadas en un compás político.

Los resultados apuntan a que los modelos BERT de Google son más conservadores que los modelos GPT de OpenAI. Los investigadores creen que las respectivas tendencias políticas de estas IA se deben a las bases de datos con las que fueron entrenadas. Mientras que los modelos BERT fueron educados con libros, que tienden a ser más conservadores, los modelos GPT fueron entrenados con textos de internet.

Cabe señalar que los modelos de IA cambian a medida avanza el tiempo y las compañías actualizan sus bases de datos y métodos de entrenamiento. Por ejemplo, GPT-2 apoyó ideas como “cobrar impuestos a los ricos” y GPT-3 no lo hizo.

Un representante de Meta comentó a MIT Technology Review que la compañía ha compartido información sobre cómo creó LLaMA 2, incluyendo detalles de cómo se configuró el modelo para reducir sesgos. También dijo que Meta se comprometerá a continuar involucrándose con la comunidad para identificar y mitigar vulnerabilidades de forma transparente para así apoyar el desarrollo de una IA generativa más segura.

Sin embargo, es prudente tomar esta declaración con escepticismo. A pesar de que Meta ha publicitado su IA generativa asegurando que es de código abierto, no lo es.

La segunda y tercera fase del experimento involucraron el entrenamiento de dos IA, GPT-2 y RoBERTa, con bases de datos compuestas por noticias e información de redes sociales provenientes de fuentes de izquierda y derecha. El objetivo era poner a prueba si volver a entrenarlas con información más sesgada alteraba su personalidad.

Los resultados afirmaron las sospechas de los investigadores. Las IA con tendencias de izquierda se volvieron más liberales y las de derecha, más conservadoras. Esto también influyó en su capacidad para identificar discursos de odio y desinformación.

Una limitación del estudio es que los investigadores solo pudieron conducir la segunda y tercera fase del experimento utilizando modelos de IA obsoletos. Como comenta Ruibo Liu, investigadora en DeepMind, es poco probable que la comunidad científica tenga acceso a información sobre cómo funcionan las IA más avanzadas.

Otra limitación es que la IA, sobre todo los modelos más antiguos, sufren de alucinaciones. En otras palabras, inventan información. Tal como señala Soroush Vosoughi, profesor asistente de ciencia computacional en Dartmouth College, sus respuestas no pueden tomarse como un reflejo confiable de su naturaleza.

Independientemente de estas limitaciones, los resultados de este estudio son respaldados por otra investigación conducida por la Universidad de Stanford. No menos importante, los responsables desarrollaron una herramienta que compara las posiciones de los LLM con posturas populares del público para identificar sesgos.

 ¿Cómo nos afecta que la IA tenga un sesgo político? 

Como los lenguajes de modelo de IA son integrados en productos y servicios utilizados por millones de usuarios, resulta vital prevenir estos sesgos políticos o por lo menos entender cómo es que surgen.

Pongamos un caso hipotético. Un chatbot programado para ofrecer consejos de salud podría rehusarse a recomendar un aborto u otros procedimientos si tiene un sesgo conservador. No menos problemático, podría empezar a insultar a un cliente si identifica posiciones políticas con las que no está de acuerdo.

 ¿Es posible eliminar el sesgo de la IA? 

Al final del día, es imposible para observadores e investigadores saber a ciencia cierta por qué estas diferentes IA generativas tienen sesgos políticos tan distintos. Como señala Chan Park, investigadora en la Universidad Carnegie Mellon, las compañías tecnológicas no comparten los detalles o métodos empleados para entrenarlas.

Puede que aún sea muy pronto para asegurarlo, pero Park cree que ningún modelo de lenguaje puede ser libre de sesgos políticos. Por ahora, los esfuerzos para eliminar o por lo menos mitigar los sesgos de los modelos de lenguaje han sido en vano.

Los investigadores han probado removiendo el contenido sesgado de las bases de datos. Sin embargo, según comenta Soroush Vosoughi, es muy difícil eliminar todos los sesgos en una base de datos. A esto también contribuye el hecho de que la inteligencia artificial tiene un talento para encontrar sesgos pequeños, reproducirlos y acentuarlos.

Esperemos que, con los avances de la tecnología, estos sesgos puedan mantenerse al mínimo. De lo contrario, tocará cruzar los dedos para que no terminemos en la línea temporal en la que seremos gobernados o destruidos por una IA fascista.