¿Cómo garantizar un uso responsable de la inteligencia artificial (IA)?

La inteligencia artificial (IA) ha llegado para quedarse. El auge de esta tecnología ha llevado a muchas compañías a implementar herramientas como ChatGPT, Dall-E 2 y Midjourney en sus flujos de trabajo. Sin embargo, el ‘boom’ la IA ha evidenciado la necesidad de regulaciones para compensar sus riesgos y desafíos.

Entre los peligros de la IA se encuentra la posible filtración de datos sensibles, su potencial de desinformar —ya sea por su falta de transparencia y las intenciones maliciosas de sus usuarios— y su situación nebulosa en lo que respecta a derechos de autor. A causa de esto, varias firmas están prohibiendo el uso de IA generativas.

En un sondeo realizado por Bloomberg, más del 50% de las empresas encuestadas revelaron estar creando políticas para regular el uso de la IA. Ahora más que nunca, las compañías deben invertir en estrategias de Inteligencia Artificial Responsable (RAI).

 ¿Qué es una Inteligencia Artificial Responsable (RAI)? 

Según Microsoft, la Inteligencia Artificial Responsable es un tipo de IA que potencia valores deseados para la sociedad. Estos incluyen equidad, confiabilidad, privacidad, seguridad, inclusión, transparencia y responsabilidad. Por extensión, una estrategia de RAI ayuda a identificar los riesgos de la IA y mitigar sus posibles fallos.

Cabe aclarar que los modelos de Inteligencia Artificial Responsable no fueron diseñados para lidiar con un súbito e inimaginable número de riesgos relacionados con la IA. Las estrategias de RAI deben evolucionar junto con la tecnología que resguardan.

 Los riesgos de aplicaciones de Inteligencia Artificial (IA) de terceros 

Un estudio realizado por la revista MIT Sloan Management Review y Boston Consulting Group (BCG) identifica que la frenética adopción de aplicaciones de IA de terceros está exponiendo a muchos negocios a nuevos riesgos comerciales, legales y de reputación. Estos pueden ser difíciles de identificar y mitigar sin una metodología de RAI.

Aunque la accesibilidad de estas herramientas es un gran atractivo, no están exentas de riesgos. Basta con ver la filtración de datos de usuarios de ChatGPT de marzo.

El problema yace en que los programas de RAI están teniendo problemas a la hora de seguir el paso a los avances de la inteligencia artificial. Irónicamente, esto ha llevado a una reducción en la inversión de modelos de RAI cuando se necesitan más que nunca.

¿Cuántas compañías aplican modelos de RAI? 

Según el estudio de MIT Sloan Management Review y BCG, el porcentaje de organizaciones caracterizadas como líderes en RAI aumentó un 13% en 2023 en comparación con el año pasado. Incluso un 7% de las compañías que no clasifican como líderes tuvieron un aproximación a modelos de Inteligencia Artificial Responsable. En general, la madurez de RAI ha mejorado en lo que va del año.

A pesar de estos resultados positivos, no quiere decir que deba descuidarse la implementación de modelos de Inteligencia Artificial Responsable. Estos programas deben hacer un mejor trabajo identificando y mitigando los riesgos de aplicaciones de terceros. Un 55% de los fallos relacionados con IA provienen de estas herramientas.

Las consecuencias de manejar estas aplicaciones sin regulación incluyen daños a la reputación, pérdida de la confianza de los clientes, lucro cesante, penalizaciones por falta de regulación, desafíos de cumplimiento y litigios. Recientemente, el sindicato GMG denunció a G/O Media —propietaria de medios como Gizmodo y Kotaku— tras la publicación de un artículo generado por una IA sin la probación del equipo editorial.

¿Qué debe hacer para tener una buena estrategia de RAI? 

A estas alturas, es claro: no adoptar una estrategia de RAI es un riesgo de seguridad. Si bien implementarla requiere de una planeación e inversión, las compañías pueden seguir los siguientes pasos para poner en marcha un buen programa de RAI.

Los programas de RAI deben seguir creciendo  

La tecnología está cambiando constantemente y los métodos de RAI también deben hacerlo. Esto no solo incluye ampliar la escala y el alcance de dichos programas, sino asegurarse de que aplican a toda la organización y no solo a situaciones específicas.

Hay que evaluar a fondo las herramientas de terceros  

Actualmente, muchas compañías dependen de herramientas de IA de terceros. Su uso seguirá creciendo con la adopción de herramientas de IA generativa y demás avances. Como ya se ha mencionado, estos suponen riesgos legales y comerciales.

Si bien no existe una solución absoluta para mitigar los riesgos de aplicaciones de IA, las compañías deberían evaluar el uso de estas herramientas de forma adecuada y constante. Entre más filtros se empleen, la estrategia de RAI será más efectiva.

He aquí algunos de los elementos que pueden auditarse y monitorearse para tener un marco de gestión de riesgos que garantice el uso de IA responsable en su negocio:

  • Las prácticas de RAI del vendedor

  • Si el lenguaje contractual de la herramienta exige adherirse a los principios de RAI

  • La certificación del vendedor, si están disponibles

  • Reseñas internas de la herramienta cuando esté integrada a un producto o servicio

  • Adherencia a requerimientos regulatorios relevantes y estándares de la industria

Prepárese para las inminentes regulaciones a la IA

La Unión Europea está trabajando en el Acta IA, el primer marco regulatorio internacional para esta tecnología. Y esta no será la última legislación que buscará controlarla. Ante esta inminente ola de regulaciones, las compañías que ya estén preparadas para dar cumplimiento tendrán una gran ventaja sobre aquellas que no.

Los CEO deben involucrarse para que la RAI alcance su máximo potencial 

El involucramiento de los CEO puede potenciar los beneficios de los programas de RAI, lo que mitiga los riesgos del uso de la IA. Las empresas en las que los CEO juegan un papel activo en los programas de RAI contratando o determinando metas experimentan más beneficios. Esto cobrará aún más importancia con la llegada de las regulaciones.

Invierta en Inteligencia Artificial Responsable 

No es el momento de recortar gastos en equipos enfocados en el uso ético o responsable de la IA. A lo largo del último año, la adopción de esta tecnología ha crecido exponencialmente. No hay mejor momento para invertir en programas de RAI.

El estudio de MIT Sloan Management Review y BCG señala que las organizaciones que utilizan aplicaciones de IA de terceros y se someten a regulaciones sufren 12% menos de fallas en comparación de las compañías que no se ciñen a dichas políticas.

La IA está en constante cambio. Más pronto que tarde, el mundo se adaptará a esta tecnología. Queda en manos de las compañías prepararse para lo que depara el futuro. No solo ahorrarán tiempo y dinero a la hora de cumplir futuras regulaciones, sino que tendrán una ventaja contra aquellos que se queden dormidos en los laureles.