La Ley de Inteligencia Artificial europea vela por el respeto a los derechos fundamentales, la seguridad y busca impulsar la innovación. Son los primeros en formularla y aprobarla, ellos serán ejemplo en su aplicación ¡Conozca todos los detalles!
Sin el ánimo de sonar pretenciosa, pero ya lo había pronosticado y les había contado en otro blog hace casi un año que la Unión Europea iba a ser la primera en tener su propia Ley de Inteligencia Artificial. Por lo menos, la primera en ser la más completa.
En efecto, así fue, el reglamento para la Ley de Inteligencia Artificial, que venían trabajando y discutiendo en la Eurocámara, desde el 2023, ya se aprobó. Todavía faltan algunos ajustes pequeños para que entre en vigencia escalonada, pero no tiene reversa.
El orden de los hechos es el siguiente: en diciembre del 2023 se acordó el reglamento entre los estados miembros y finalmente fue aprobado el pasado 3 de marzo del 2024 en la Eurocámara.
Básicamente, pasó con 523 votos a favor, 46 en contra y 49 abstenciones en la Eurocámara. Hablamos de un reglamento que marca un hito importante y tal vez un ejemplo a seguir, en el mundo; por ello, valdrá la pena observar cómo se va aplicando.
Uno de los co-ponentes de la Ley, Brando Benifei, perteneciente a la comisión de Mercado Interior (S&D, Italia), señaló que Europa tiene la primera ley vinculante del mundo sobre inteligencia artificial.
Una norma que fue creada para “reducir riesgos, crear oportunidades, combatir la discriminación y aportar transparencia. Gracias al Parlamento, se prohibirán en Europa prácticas inaceptables de IA y se protegerán los derechos de los trabajadores y los ciudadanos (…) Nos aseguramos de que los seres humanos y a los valores europeos estén en el centro del desarrollo de la IA”, agregó Benifei.
Ahora, esta Ley cubre varios aspectos importantes, como: “proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, e impulsar al mismo tiempo la innovación y erigir a Europa en líder del sector”, según compartió el Parlamento Europeo.
Dragos Tudorache, co-ponente de la comisión de Libertades Civiles (Renew, Rimanía), comentó que la Ley de IA es un punto de partida para un nuevo modelo de gobernanza construido alrededor de la tecnología.
“La IA nos empujará a repensar el contrato social en el corazón de nuestras democracias, nuestros modelos educativos, los mercados laborales y la forma en que llevamos a cabo la guerra”, comentó Tudorache.
También puede leer: Colombia y Chile marcan la parada en términos de legislación de IA para Latam
Lo que sigue tras la aprobación de este reglamento es que se ejecute una comprobación jurídica lingüística y su aprobación definitiva se espera se realice al finalizar la legislatura.
En el caso europeo esta Ley también debe ser aprobar por el Consejo. Una vez se llegue a este punto, entrará en vigor veinte días después de publicada en el Diario Oficial y “será de plena aplicación 24 meses después”.
Algunos puntos en la ley tienen excepciones para su entrada en vigencia, así:
-
Las prohibiciones de prácticas, se aplicarán 6 meses después de la fecha de entrada en vigor.
-
Los códigos de buenas prácticas, 9 meses después.
-
Las normas sobre la IA de uso general, incluida la gobernanza, 12 meses después.
-
Las obligaciones para los sistemas de alto riesgo, 36 meses después.
¿Cuáles son las obligaciones del primer reglamento de la IA de Europa?
Las obligaciones dependen del tipo de riesgo que pueda correrse con la implementación y uso de la IA. Hay algunas acciones totalmente prohibidas y otras relacionadas con temas de seguridad, entre otros. Le cuento de manera breve las más destacadas.
¿Cuáles son las aplicaciones de la IA prohibidas en la Ley de IA europea?
Las aplicaciones prohibidas son aquellas que atentan contra los derechos de los ciudadanos, por ejemplo, los sistemas de categorización biométrica “basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones (deepfakes), para crear bases de datos de reconocimiento facial”, señala el Parlamento Europeo.
El reconocimiento de emociones en el lugar de trabajo y las escuelas, los sistemas de puntuación ciudadana, actuación policial predictiva y la IA que manipule el comportamiento humano o explote las vulnerabilidades de la persona, también están prohibidos.
También puede leer: A paso lento va legislación de la IA en Estados Unidos
¿Qué tipo de exenciones se les dio a las fuerzas de seguridad en la Ley de IA europea?
El uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad están prohibidos. Sin embargo, se podrían usar en situaciones concretas y definidas, y de acuerdo con una serie de condiciones estrictas.
Algunas como por ejemplo que su uso esté limitado a un periodo y lugar específico y que se cuente con una autorización judicial o administrativa previa. Un caso en el que se podría usar es en la búsqueda de una persona desaparecida o para prevenir un atentado terrorista.
¿Cuáles son las condiciones para los sistemas de IA de alto riesgo según la Ley europea?
Son aquellos sistemas de IA que podrían ser muy perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho.
Un ejemplo de uso de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales, determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia, los procesos democráticos para influir en las elecciones, entre otros.
Ante su uso, los ciudadanos tienen derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en estos que afecten sus derechos, según el Parlamento Europeo.
Puntos básicos sobre la Ley de Inteligencia Artificial de Europa
La nueva Ley además condiciona el uso con algunos requisitos básicos como el respeto por la legislación de la Unión Europea sobre los derechos de autor y la condición de publicar resúmenes detallados del contenido usado para entrenar los modelos.
También en la reglamentación se exige la etiquetación de contenidos que han sido manipulados o que son artificiales como imágenes, audio o video.
Un punto interesante es que existirá el apoyo a la innovación y a las pymes, por lo que proponen crear espacios controlados para pruebas y ensayos en condiciones reales para desarrollar y entrenar la IA, antes de que se comercialice.
Las promesas de la Ley para regular la IA son grandes, en la práctica seremos testigos sobre cómo Europa inicia su aplicación y sin duda le darán al mundo lecciones sobre las mejores prácticas frente al uso y desarrollo de la IA.