Empleados y exempleados de OpenAI advierten sobre la importancia de la transparencia de la IA

Cuando exempleados de OpenAI y expertos están preocupados por la falta de transparencia de la IA, algo debe estar mal.

El lanzamiento de ChatGPT a finales de 2022 marcó el inicio de una carrera entre los gigantes de la industria tecnológica. ¿Pero qué pasa cuando los creadores de la IA están más interesados en el avance tecnológico y lo lucrativo que puede ser que en las consecuencias que sus creaciones pueden tener sobre el mundo y sus habitantes?

En febrero señalamos los riesgos de la falta de control ético de la IA. No hace mucho se descubrió que OpenAI, Google y Meta están violando la privacidad de los usuarios y derechos de autor para entrenar a sus IA. Ahora, un grupo de empleados y exempleados de OpenAI y Google DeepMind enfatiza la necesidad de la transparencia de la IA.

Contenido relacionado: ¿Qué es la Inteligencia Artificial (IA)?

Una carta de advertencia 

El 4 de junio, un grupo de empleados y exempleados de OpenAI y Google DeepMind publicó una carta advirtiendo sobre los riesgos mantener la IA sin supervisión. Ha hecho hincapié en que varias compañías están más interesadas en las ganancias resultantes de no implementar controles y/o garantizar la transparencia de la IA.

Incluso si varios gobiernos —tales como la Unión Europea— han implementado marcos normativos para regular la IA, el grupo no cree que esto sea suficiente. Legalmente, las empresas solo están obligadas a compartir ciertos datos sobre las capacidades, las limitaciones y los riesgos de sus sistemas de inteligencia artificial con los gobiernos.

Ciertamente no lo harán de forma voluntaria con la población civil.

Cabe resaltar que los miembros de este grupo no son empleados cualquiera. Entre sus filas está Jan Leike, que era el responsable de seguridad de OpenAI, y Daniel Kokotajlo, exinvestigador de gobernanza. Sus preocupaciones no deben caer en oídos sordos.

William Saunders, antiguo ingeniero de investigación, fue uno de muchos empleados que renunció a OpenAI ante lo que él define como una mentalidad de “creemos cosas, veamos qué pasa y reparemos después”. Carroll Wainwright, que trabajaba bajo Jan Leike, destaca que esto va más allá de la ingenuidad. Se inclina hacia la codicia.

Las anteriores inquietudes hacen eco de lo dicho por Leike tras renunciar a la empresa en mayo: “En los últimos años, la cultura de seguridad y los procesos han quedado en segundo plano. Ahora, lo más importante es presentar productos nuevos y llamativos”.

En el caso de exempleados como Jacob Hilton, los acuerdos de no solicitación y no menosprecio estrictos impuestos por OpenAI —que amenazaba con retener una gran parte de su compensación— fueron lo que los impulsó a tomar cartas en el asunto.

 Los principios a los que las compañías de IA tienen que comprometerse para garantizar transparencia

Con el fin de garantizar una mayor transparencia de la IA, el grupo de empleados y exempleados busca que las compañías se comprometan con estos principios:

  1. Las organizaciones no forzarán acuerdos que prohíban que empleados u otros terceros “desacrediten” o critiquen por preocupaciones de seguridad. Tampoco tomarán represalias contra aquellos que resalten dichas preocupaciones.

  2. Las empresas facilitarán un proceso anónimo verificable para empleados actuales y antiguos para presentar preocupaciones de seguridad a la junta directiva, los reguladores y una organización independiente con experiencia.

  3. Se apoyará una cultura de crítica abierta. Empleados actuales y antiguos podrán hacer públicas sus preocupaciones de seguridad. Por supuesto, secretos comerciales y demás intereses de propiedad intelectual serán protegidos.

  4. Si los demás procesos han fallado, las compañías no tomarán represalias contra empleados actuales y antiguos que hagan pública información confidencial.

Como informa el abogado Lawrence Lessig, las protecciones a whistleblowers —aquellas figuras que informan sobre irregularidades en su ámbito laboral— son insuficientes porque se enfocan primordialmente en actividades ilegales. Más importante, las estructuras de gobernanza tradicionales no son suficiente.

¿Por qué son necesarios estos principios? 

OpenAI empezó como una organización sin animo de lucro. No tenía que rendir cuentas a una junta de inversionistas. Sin embargo, la compañía descubrió lo exponencialmente costoso que es desarrollar IA. Para mantenerse a la vanguardia y tener un músculo financiero, tuvo que asociarse con Microsoft. No fue la única empresa que hizo esto.

¿Pero acaso OpenAI no tenía un Consejo de Supervisión enfocado en proteger los intereses de la humanidad? Si no estuvieron pendientes de las noticias, dicha junta despidió a Sam Altman —CEO de OpenAI— en noviembre de 2023 ante su falta de transparencia. Pocos días después, Altman volvió junto con una nueva junta directiva.

A pesar de esta polémica, Lindsey Held —portavoz de OpenAI— garantiza que la empresa mantiene su compromiso de garantizar la transparencia de su IA. Según Held, su línea directa de integridad y Comité de Salud y Seguridad son prueba de ello.

Daniel Ziegler —uno de los responsables de redactar la carta y antiguo ingeniero de machine learning (ML) en OpenAI— pone en duda la honestidad de la organización. El caso de Daniel Kokotajlo apunta a que estas medidas son una mera formalidad.

Durante su tiempo en la compañía, Kokotajlo fue testigo de que los protocolos de seguridad nunca ralentizaron, mucho menos evitaron, que la empresa lanzara nuevos productos. Kokotajlo cita un caso particular: en 2022, Microsoft inició pruebas en India de una versión de Bing potenciada por GPT-4 sin la aprobación de la junta de seguridad.

 “El mundo no está listo y nosotros tampoco” 

Esa es la última reflexión de Kokotajlo. ¿Es hiperbólica? Un poco, pero sus preocupaciones están justificadas. Hoy en día, la carrera tecnológica para crear la inteligencia artificial definitiva parece más motivada por la arrogancia y avaricia. Las medidas tomadas por OpenAI para evitar mala prensa no disipan las sospechas.

La semana pasada, OpenAI reveló que había comenzado a entrenar el nuevo modelo que reemplazaría a GPT-4. Si bien dio a conocer que se formaría un nuevo comité de salud y seguridad, ¿qué garantiza que frenará iniciativas que puedan ser dañinas para la humanidad a largo plazo? Al fin y al cabo, anteriores juntas y comités no han servido.

Es hora de crear una estructura que obligue o por lo menos incentive a las empresas a cumplir sus compromisos públicos. Piénsenlo como una inversión a largo plazo. Si compañías como OpenAI no son reguladas a tiempo, en unos cuantos años podríamos estarnos preguntando si el desenfrenado avance de la IA realmente valió la pena.

Contenido relacionado: Historia de la Inteligencia Artificial