Unión Europea será la primera en sacar la ley IA

La primera Ley de inteligencia artificial (IA) al parecer la tendrá la Unión Europea finalizando este 2023.

La primera Ley integral de IA en la Unión Europea, está en proceso de revisión por el Parlamento Europeo y los países miembros, y se aprobaría al finalizar el 2023. Es una norma que busca garantizar mejores condiciones para el uso de esta innovadora tecnología.

Se le apuesta a que esté centrada en el ser humano y sea confiable para lograr construir una Europa resiliente en la era digital y que las personas y empresas puedan disfrutar de los beneficios de la IA sintiéndose seguros y protegidos, de acuerdo a lo que informó el Parlamento Europeo en su web.

El primer marco regulatorio de la UE para la IA se viene trabajando en la Comisión Europea en el 2021 y aborda como prioridad que los sistemas de inteligencia artificial sean seguros, transparentes, rastreables, no discriminatorios y respetuosos con el medio ambiente.

Se sabe que la norma fue presentada como un paquete por la Comisión en el 2021 e incluía tres iniciativas legales para construir una IA confiable, estas son:

  1. “Un marco jurídico europeo para la IA que aborde los derechos fundamentales y los riesgos de seguridad específicos de los sistemas de IA.

  1. Un marco de responsabilidad civil, adaptando las normas de responsabilidad a la era digital y la IA.

  1. Una revisión de la legislación de seguridad sectorial (por ejemplo, Reglamento de Maquinaria, Directiva de Seguridad General de Productos)”.

Dentro de este marco regulatorio, además se busca establecer una definición neutral sobre lo que es la IA desde lo tecnológico y que incluso pueda aplicarse a futuros sistemas de inteligencia artificial.

Uno de los planteamientos novedosos que proponen es que estos sistemas deben ser supervisados por personas y no por la automatización para evitar resultados dañinos.

Tal vez uno de los puntos más destacados de la Ley integral de IA en Europa es la clasificación de riesgo que deberá realizarse sobre estos sistemas. Otro punto importante es que establece cuáles son las prácticas prohibidas con la IA y las obligaciones que tienen los proveedores de esta tecnología ante la sociedad.

Sin duda alguna, una de sus metas es proteger los derechos de las personas. Por ello, propone impulsar el derecho de los ciudadanos a presentar quejas sobre los sistemas de IA y recibir explicaciones sobre las decisiones basadas en sistemas de IA que impacten sus derechos fundamentales.

Descubra en este blog de manera detallada los puntos fundamentales que aborda la Ley de IA de la Unión Europea.

Clasificación y los niveles de riesgo de IA según la Ley de IA en Europa

Básicamente se presentó una clasificación de riesgo para los diferentes sistemas de inteligencia artificial. Siendo tres los principales: riesgo inaceptable, riesgo alto y riesgo limitado. Clasificación de sistemas de IA con riesgo inaceptable. 

Son aquellos que se consideran una amenaza para las personas y por naturaleza están prohibidos, estos son:

  • Los sistemas de IA que puedan manipular cognitivamente y conductualmente a las personas o grupos vulnerables específicos. Podrían ser juguetes que se activen por voz o que generen comportamientos peligrosos en los niños.

  • Sistemas de IA que realicen puntuación social y que clasifiquen a las personas según su comportamiento, estatus socioeconómico o características personales.

  • Sistemas de IA para identificación biométrica remota y en tiempo real (algunos como el reconocimiento facial). Este punto tiene excepciones aplicadas a los sistemas de identificación remota “post”, para perseguir delitos graves y solo con la aprobación de un tribunal.

Clasificación de sistemas de IA con alto riesgo  

Son aquellos que pueden afectar la seguridad o los derechos fundamentales de las personas. Están divididos en dos categorías de acuerdo con el Parlamento Europeo:

  1. Los sistemas de IA que usan productos que están sujetos a la legislación de seguridad de productos de la UE. Algunos como: juguetes, aviación, automóviles, dispositivos, médicos y ascensores.

  1. Los sistemas de IA que se clasifican en ocho áreas específicas y que deberán registrarse en una base de datos de la UE, en este grupo están aquellos que realizan:

  • Identificación biométrica y categorización de personas físicas.

  • Gestión y operación de infraestructuras críticas.

  • Educación y formación profesional.

  • Empleo, gestión de trabajadores y acceso al autoempleo.

  • Acceso y disfrute de los servicios privados esenciales y de los servicios y prestaciones públicos.

  • Cumplimiento de la ley.

  • Gestión de migraciones, asilo y control de fronteras.

  • Asistencia en la interpretación jurídica y aplicación de la ley.


Además, la UE estableció que todo sistema de IA de alto riesgo tendría que evaluarse antes de salir al mercado, así como durante su ciclo de vida.

Reglas para la IA generativa  

En los casos de inteligencia artificial generativa, como por ejemplo ChatGPT, deberán cumplir con los requisitos de transparencia, que son:

  • “Revelar que el contenido fue generado por IA.

  • Diseñar un modelo para evitar que genere contenidos ilegales.

  • Publicar los resúmenes de datos protegidos por derechos de autor utilizados para capacitación”.

En la clasificación de alto riesgo también entran los sistemas de IA que “suponen un daño significativo para la salud, la seguridad, los derechos fundamentales o el medio ambiente de las personas”.

Además, quedaron en la lista de alto riesgo aquellos sistemas de IA que se puedan usar para influir en las votaciones, el resultado de las elecciones y en los sistemas de recomendación utilizados por las plataformas de redes sociales (con más de 45 millones de usuarios), explicó el Parlamento.

Sistemas de IA con riesgo limitado  

Estos son los que deben cumplir con requisitos mínimos de transparencia que les facilite a los usuarios la toma de decisiones informadas.

Otra condición es que el usuario deberá tener el poder de decidir si quiere seguir usándolas y debe saber cuándo está interactuando con una IA. Estas reglas aplican para sistemas de IA que pueden generar o manipular el contenido de imagen, audio o video como los deepfakes.

Prácticas prohibidas en el marco europeo para la Ley de IA

Están basadas en una serie de reglas que establecen obligaciones a los proveedores y aquellos que implementen sistemas de IA, de acuerdo con el nivel de riesgo que pueden generar, según explica el Parlamento Europeo.

La primera condición es que los sistemas de IA con un nivel de riesgo inaceptable para la seguridad de las personas en definitiva están prohibidos. Un ejemplo sobre estos es la puntuación social.

Las prohibiciones en el marco regulatorio, según el Parlamento, incluyen usos intrusivos y discriminatorios de la IA, como:

  • “Sistemas de identificación biométrica remota “en tiempo real” en espacios de acceso público.

  • Sistemas de identificación biométrica a distancia “post”, con la única excepción de las fuerzas del orden y con el objetivo de perseguir delitos graves y solo con previa autorización judicial.

  • Sistemas de categorización biométrica que utilizan características sensibles como, por ejemplo, género, raza, etnia, estado de ciudadanía, religión, orientación política.

  • Sistemas policiales predictivos que estén basados en perfiles, ubicación o comportamiento delictivo pasado.

  • Sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas.

  • Extracción no dirigida de imágenes faciales de internet o secuencias de circuito cerrado de televisión para crear bases de datos de reconocimiento facial. Las cuales violarían los derechos humanos y el derecho a la privacidad”.

 

Obligaciones para la IA según la propuesta de Ley Europea

Una de las obligaciones que la UE estipula a los proveedores de modelos básicos, con desarrollos nuevos y de evolución rápida, es la de mitigar posibles riesgos en la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el estado de derecho.

Incluso, estos proveedores de IA tendrían que registrar sus modelos en la Base de Datos de la UE antes de realizar el lanzamiento de sus tecnologías.

Los modelos de IA generativa deben, por su parte, revelar que el contenido fue generado por una IA, ayudar a distinguir las imágenes falsas de las reales y garantizar “salvaguardas contra la generación de contenido ilegal”, dice el marco regulatorio.

Una de las condiciones más importantes es que tendrían que entregar resúmenes detallados de los datos protegidos por copyright que fueron empleados para entrenar las IA y estos deben ser de carácter público.

Su meta es apoyar la innovación y proteger los derechos fundamentales

La meta también es impulsar la innovación en estas tecnologías y apoyar a las pymes. Para lograrlo, se plantean exenciones en temas de investigación y componentes de IA con licencias de código abierto.

Desde el 2021, y con este fin, se acordó maximizar los recursos y coordinar inversiones en IA. Y, a través de los los programas Horizon Europe y Digital Europe se tenía previsto invertir 1.000 millones de euros al año en IA. Así como también movilizar inversiones del sector privado y de los estados miembros para alcanzar una inversión anual de 20 mil millones de euros durante una década.

Para la UE la IA puede generar muchos beneficios como lograr una mejor atención médica, transporte más seguro y limpio, lograr una fabricación más eficiente y obtener más energía barata y sostenible.

Si bien la norma está en evaluación, discusión y en proceso de aprobación por el Parlamento y los países miembros, será una ley que dicte tal vez un marco de referencia sobre la regulación de la inteligencia artificial para el mundo entero.

Fuentes consultadas:

European Parliament, EU AI Act: first regulation on artificial intelligence

European Parliament, MEPs ready to negotiate first-ever rules for safe and transparent AI

European Parliament, A European approach to artificial intelligence