A paso lento va legislación de la IA en Estados Unidos

Las instituciones están aplicando las normas ya existentes para regular algunos temas de la IA, sobre los relacionados con privacidad. Pero aún no hay desde el congreso acuerdos o proyectos de Ley para intentar regular la IA.

Pocas son las propuestas existentes para regular la inteligencia artificial (IA) en Estados Unidos. En buena parte porque todavía los congresistas no saben o conocen qué es la IA, cómo podría afectar a los ciudadanos en el futuro y tampoco existen acuerdos sobre cuál es la mejor manera de manejar esta tecnología.

Adicionalmente, algunas de las empresas de tecnología señalan, según The New York Times, que le dan la bienvenida a las reglas sobre IA, pero al tiempo se oponen a las regulaciones estrictas, como la Ley integral de IA de Europa, que está en etapa de discusión en el Parlamento Europeo.

Solo hasta abril del 2023, Chuck Shumer, senador estadounidense, al parecer empezó a desarrollar un marco para la regulación de la IA, que podría sentar las bases para que el Congreso legisle sobre dicha tecnología. Su propuesta se centraba en cuatro puntos, de acuerdo con el medio de comunicación Axios:

1. Identificar quién entrenó el algoritmo y quién es su público objetivo.

2. Divulgar las fuentes de sus datos.

3. Explicar cómo llega a sus respuestas.

4. Establecer límites éticos, transparentes y fuertes.

En este blog de ManageEngine le contaré qué otros pasos ha dado Estados Unidos en la materia, aunque todavía no existan de manera formal proyectos de ley. Le contaré cómo desde diversas entidades, por ahora, se están aplicando las reglas ya existentes al control de la IA y las acciones que tomó en julio The White House (La Casa Blanca) sobre el tema.

¿Cómo están las instituciones de USA regulando la IA?

El Instituto Nacional de Estándares y Tecnología (NIST), la Comisión Federal de Comercio (FTC) y la Administración de Alimentos y Medicamentos (FDA) han dado algunos de los lineamientos básicos sobre IA, basándose en normas ya existentes.

Esto es lo qué han hecho cada una de dichas entidades, según la firma de abogados Goodwin:

La FTC se basa en el Risk Management Framework

Esta entidad  usa como base el Marco de gestión de riesgos (Risk Management Framework, RMF) publicado por el NIST. La FTC ha sugerido diversas prácticas como la de aumentar la vigilancia hacia las empresas que usan la IA.

Además, algunos artículos advirtiendo a las empresas que eviten prácticas injustas o engañosas que podrían realizarse a través de la IA, los chatbots y los clones de voz.

FDA quiere regular los dispositivos que usan IA en la medicina

Esta institución anunció la intención que tiene de regular diversas herramientas de apoyo en la toma de decisiones clínicas que son impulsadas por IA como dispositivos, pero no mencionó cómo.

Lo que sabemos es que esta decisión de la FDA tiene un antecedente importante que data del 2022. En dicho año se estableció que los dispositivos de software debían empezar a cumplir con cuatro criterios básicos para poder ser considerados como un Clinical Decision Support Software (CDS).

NIST es el primero en publicar un marco de gestión de riesgos por IA

El Instituto Nacional de Estándares y Tecnología (NIST) publicó el Marco de Gestión de Riesgos de Inteligencia Artificial 1.0 (RMF). El cual se presenta como una “guía voluntaria, no específica e independiente para las empresas que están diseñando, desarrollando, implementando o utilizando sistemas de IA para gestionar los riesgos de la IA y promover el desarrollo y uso confiable y responsable de los sistemas”.

Es un documento que podría ser la base para que el gobierno pueda regular en el futuro la IA y convertirse en un estándar de la industria de la tecnología.

Este marco se basa en el principio de que se da por hecho que el ser humano asume que los sistemas de IA son objetivos y de alto funcionamiento, lo que podría generar mucho daño. La apuesta de mejorar la confiabilidad podría mitigar este riesgo y por ello, como punto de partida definió el principio de confiabilidad para las IA.

La confiabilidad en las IA está compuesta por siete características, según la firma de abogados, que son:

  1. Seguridad: los sistemas deben monitorear en tiempo real, proporcionar respaldo para prevenir daños físicos o psicológicos o que puedan poner en peligro la vida, salud o propiedad de una persona.

  1. Seguro y resistente: debe contar con protocolos para evitar, proteger o responder a ataques contra el sistema de IA.

  1. Explicable e interpretable: debe ayudar a comprender y contextualizar los mecanismos del sistema de IA.

  1. Privacidad mejorada: debe salvaguardar la autonomía humana al proteger el anonimato, la confidencialidad y el control.

  1. Justo: debe gestionar los sesgos dañinos (de tipo sistémico, computacional y estadístico, y cognitivos humanos) y promover la equidad e igualdad. Así como gestionar los sesgos.

  1. Responsable y transparente: la información sobre el sistema de IA y de sus diferentes etapas de ciclo de vida, debe estar disponible para la consulta del público. Además, se deben mantener las prácticas organizativas para reducir los daños potenciales.

  1. Válido y confiable: se deben realizar pruebas de demostración o monitoreo para confirmar que el sistema de IA funciona.

De acuerdo con la firma de abogados, el marco de riesgo RMF señala que los sistemas de IA también podrían estar sujetos a riesgos únicos, algunos relacionados con el uso de datos personales. Esto obliga a las empresas de IA a las leyes de privacidad y a otros riesgos de privacidad.

También señala que los datos de entrenamiento usados en las IA pueden estar sujetos a las normas de protección de derechos de autor y que los problemas de calidad de los datos pueden afectar la confiabilidad de los sistemas de IA.

El documento describe cuáles son las cuatro funciones clave para gestionar el riesgo de los sistemas de IA, que son: mapear, para obtener conocimiento suficiente sobre la IA; medir, para probar, evaluar, verificar y validar la gestión sobre la IA; gobernar, para incorporar una cultura organización sobre la gestión del riesgo de IA, y administrar, para monitorear, priorizar, responder y recuperarse de los incidentes de riesgos de la IA.

Casa Blanca realizó acuerdo con siete grandes del sector IA

El pasado 21 de julio del 2023, The White House publicó un comunicado anunciando la realización de un compromiso con siete de las compañías más grandes de tecnología que están trabajando con IA.

El compromiso, que es de carácter voluntario, tiene como finalidad gestionar los riesgos que plantea la inteligencia artificial. Las siete empresas líderes que firmaron dicho compromiso son: Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI.

De acuerdo con la Casa Blanca, desde la administración Biden-Harris, consideran que las empresas que están desarrollando estas tecnologías emergentes tienen la responsabilidad de garantizar que sus productos sean seguros.

“Toda la administración Biden-Harris se ha movido con urgencia para aprovechar la tremenda promesa y gestionar los riesgos que plantea la inteligencia artificial (IA) y proteger los derechos y la seguridad de los estadounidenses”, se señala en el comunicado.

Dentro de estos compromisos se subrayaron tres principios fundamentales para el futuro de la IA: seguridad, protección y confianza. Los cuales podrían ayudar a marcar el camino para el desarrollo de una IA responsable.

Estos son algunos de los puntos que incluye el compromiso con los siete grandes de las tech, de acuerdo con La Casa Blanca:

  1. Realizar pruebas de seguridad internas y externas de sus sistemas de IA antes de lanzarlos al mercado. Estos deben ejecutarse por parte de expertos independientes y proteger contra riesgos como bioseguridad y ciberseguridad, y tener en cuenta los efectos sociales.

  1. Compartir información sobre la gestión de los riesgos de la IA con la industria, los gobiernos, la sociedad civil y el mundo académico. Incluyendo mejores prácticas, información sobre intentos de eludir salvaguardas y colaboración técnica.

  1. Invertir en seguridad cibernética y salvaguardas contra amenazas internas, para proteger los ‘model weights’ que no se han lanzado, es decir, aquellas instrucciones matemáticas que modelan las funciones de la IA.

  1. Desarrollar mecanismos, como las marcas de agua, para garantizarles a los usuarios sepan cuándo se genera el contenido mediante IA.

  1. Priorizar la investigación sobre los riesgos sociales que podrían generar los sistemas de IA y a mitigarlos. Esto incluye evitar prejuicios, discriminaciones perjudiciales y proteger la privacidad.

  1. Desarrollar e implementar sistemas avanzados de inteligencia artificial para ayudar a la sociedad.

Se anunció, adicionalmente, que la Administración actual se encuentra desarrollando una orden ejecutiva y le apunta a la creación de una legislación bipartidista. Lo anterior, con el fin de ayudar al país a liderar el camino de la innovación responsable.

Además, quiere trabajar con aliados y socios internacionales, para crear un marco internacional sólido que rija el desarrollo y el uso de la IA. Extendieron la discusión de estos compromisos con países como: Australia, Brasil, Canadá, Chile, Francia, Alemania, India, Israel, Italia, Japón, Kenia y México, entre otros.

Por último, la administración señala que también le apunta a que estos compromisos respalden, por ejemplo, el Proceso de Hiroshima del G-7, liderado por Japón para regular la IA; el liderazgo del Reino Unido para organizar una cumbre sobre seguridad de la IA; el liderazgo de la India como Presidente de la Alianza Global sobre IA y están discutiendo sobre IA con la ONU y los Estados miembros.