Les inquiétudes concernant les risques liés aux systèmes d’IA non réglementés existent depuis longtemps. Les entreprises peuvent fonctionner sans les garanties nécessaires en place dans le but d’innover et d’être en tête du marché. Cependant, les risques posés par les modèles d’IA non réglementés sont réels et l’histoire montre que nous ne pouvons pas compter sur la majorité des entreprises technologiques pour s’autoréguler. Il y aura sans aucun doute une réglementation de l’IA, et comme pour les dispositions du RGPD sur la confidentialité des données, l’Union européenne établira la norme. Bien sûr, le problème est que la réglementation européenne est encore dans des années. La Loi européenne sur l’IA n’entrera pas en vigueur avant la fin de 2024 au plus tôt; celle-ci a été publiée pour la première fois en avril 2021 et devrait entrer en vigueur en 2023. Nous savons déjà que la législation de l’IA est en fonction du degré de risque qu’elle présente, même si les législateurs sont encore en train de peaufiner les détails.
Qu’est-ce que la Loi européenne sur l’IA?
La Loi sur l’IA est une proposition de loi pour l’Europe sur l’intelligence artificielle( IA), la première loi sur l’IA jamais soumise par un régulateur important. Les applications de l’IA sont divisées en trois catégories de risques par la loi. Premièrement, il est interdit d’employer des programmes et des systèmes qui présentent un danger intolérable, comme le score social géré par le gouvernement chinois. Deuxièmement, il existe des critères réglementaires spéciaux qui s’appliquent aux candidatures à haut risque, comme un programme qui analyse les CV et évalue les candidats à un emploi. Enfin, les applications qui ne sont pas expressément interdites ou marquées comme à haut risque sont principalement incontrôlées.
Le risque et la Loi sur l’IA
La loi sur l’IA vise à mettre en pratique l’objectif de créer un écosystème d’IA fiable. La loi sur l’IA adopte une approche fondée sur le risque, dans laquelle l’action législative est adaptée pour limiter le niveau de risque, afin de faire face aux dangers de biais, d’erreurs et d’opacité potentiels qui pourraient affecter négativement une variété de droits fondamentaux. La loi sur l’IA établit une distinction entre les systèmes d’intelligence artificielle qui présentent un risque intolérable, (ii) un risque élevé, (iii) un risque limité, et (iv) un risque faible ou minimal. Dans le cadre de cette stratégie, la réglementation des systèmes d’IA ne serait que strictement indispensable pour gérer certains niveaux de danger.
-
Risque intolérable : Selon l’article 5 de la Loi sur l’IA, les activités nuisibles de l’IA sont expressément interdites si elles présentent un “danger inacceptable” pour les droits, les moyens de subsistance et la sécurité des personnes. Il interdit donc la commercialisation, la mise en œuvre ou l’utilisation dans l’UE de systèmes d’intelligence artificielle (IA) qui utilisent des “techniques subliminales” manipulatrices nuisibles, profitent de groupes vulnérables particuliers (tels que ceux souffrant de handicaps physiques ou mentaux), ou sont utilisés par les autorités publiques ou en leur nom à des fins de notation sociale. Il interdit également l’utilisation de systèmes d’identification biométrique à distance “en temps réel” dans les espaces accessibles au public à des fins d’application de la loi, à quelques exceptions près.
-
Risque élevé : Selon l’article 6 de la Loi sur l’IA régit les systèmes d’IA “à haut risque” qui ont un effet négatif sur la sécurité des personnes ou les droits fondamentaux. Selon la Loi sur l’IA, il existe deux types de systèmes d’IA à haut risque: les systèmes d’IA à haut risque utilisés dans les produits couverts par la législation d’harmonisation de l’Union en matière de santé et de sécurité, notamment les jouets, les avions, les automobiles, les équipements médicaux et les ascenseurs; et huit domaines distincts de déploiement de systèmes d’IA à haut risque sont énumérés à l’annexe III de la Loi sur l’IA et peuvent être modifiés si nécessaire par un acte délégué. Identification et classification des personnes physiques à l’aide de la biométrie; gestion et exploitation des infrastructures vitales; instruction et formation de la main-d’œuvre; emploi, gestion des travailleurs et accès au travail indépendant; utilisation des services privés vitaux et des avantages publics; accès et jouissance de ces services; application de la loi; gestion de l’immigration, de l’asile et des contrôles aux frontières; administration de la justice et processus démocratiques. Avant de mettre leurs systèmes sur le marché ou en service, les fournisseurs de systèmes d’IA à haut risque doivent les enregistrer dans une base de données à l’échelle de l’UE gérée par la CE et se conformer aux autres exigences énoncées dans la Loi sur l’IA.
-
Risque limité : Les chatbots et certains types de médias synthétiques sont des exemples de services relativement innocents qui entrent dans la définition actuelle des modèles d’IA à risque minimal. La majorité des “systèmes d’IA destinés à interagir avec des êtres normaux” poseront un petit risque, selon la Commission européenne, et les entreprises devront simplement s’assurer que les consommateurs sont conscients qu’ils utilisent l’intelligence artificielle.
-
Risque faible : Cela devrait inclure de nombreux filtres anti-spam et jeux vidéo basés sur l’IA. Si le modèle d’IA d’une organisation est jugé présenter peu ou pas de risque, il échappe à la portée de la Loi sur l’IA, alors l’organisation est en sécurité.
Conséquences pour les contrevenants
Les conséquences pour les entreprises qui enfreignent la Loi sur l’IA seront identiques à celles de la violation du RGPD. Les infractions graves entraîneront déjà des amendes pouvant atteindre 30 millions d’euros, soit 6% du chiffre d’affaires mondial. De plus, la nouvelle loi sur l’IA aura une application extraterritoriale, tout comme le RGPD. Une entreprise américaine peut être tenue responsable si les résultats de son système d’IA sont appliqués ailleurs dans l’Union européenne.
Plus récemment, le 28 septembre 2022, la Commission a publié une proposition de Directive sur la responsabilité en matière d’IA à la demande du Parlement européen (AILD). Cette proposition de directive vise à fournir certaines bases juridiques à la responsabilité civile pour les dommages causés par les systèmes d’IA. Bien que les avocats de l’autre côté peaufinent encore le jargon juridique, la législation de l’IA est imminente.
L’étude 2021 sur l’état de l’IA responsable de FICO indique que de nombreuses entreprises ont encore du chemin à parcourir avant que leurs modèles d’IA soient à la hauteur. L’enquête, qui a été envoyée à 100 PDG axés sur l’IA dans le monde entier, a révélé des tendances troublantes.
Bien entendu, l’IA explicable sera sans aucun doute couverte dans la prochaine loi. Cela semble être un problème puisque, selon 65% des répondants, ils sont incapables de décrire comment certaines prédictions ou jugements émis par les modèles d’IA sont formés.
Fait alarmant, 68% des personnes interrogées affirment que les procédures utilisées par leurs entreprises pour garantir que les initiatives d’IA respectent les exigences légales sont ” inefficaces.”Ces chiffres ne sont pas encourageants.
“De plus, 26% affirment que leurs pistes d’audit de développement de modèles sont inégales dans certains domaines, et 4% admettent ne pas conserver du tout de pistes d’audit standardisées”, ont écrit les auteurs de l’étude FICO en référence aux pistes d’audit. Cela implique que certains modèles d’IA sont actuellement utilisés dans les entreprises mais ne sont compris que par le data scientist qui les a initialement construits. C’est évidemment une préoccupation.
Éthique dès la conception et gouvernance du modèle efficace
Les entreprises prudentes qui utilisent des systèmes d’IA surveilleront et modifieront leur équipement avant la Loi sur l’IA. L’adoption de principes éthiques et de suggestions au stade de la création des systèmes d’IA—l’éthique dès la conception—sera cruciale.
De plus, les programmeurs s’assureront progressivement que les données utilisées pour alimenter les modèles d’IA sont impartiales. D’un autre côté, il y a une conclusion positive de l’enquête FICO; plus de 59% des répondants affirment être vigilants quant aux biais qui s’infiltrent dans leurs modèles. Néanmoins, toutes les données du monde réel doivent être soigneusement analysées avant d’être utilisées pour entraîner des modèles d’IA.
Enfin, il est essentiel d’avoir des membres du personnel compétents et attentifs qui évaluent constamment les modèles afin d’éviter la dérive des modèles, de garantir la conformité réglementaire et de se protéger contre l’IA agressive et l’empoisonnement des données.
Aperçu sur l’avenir
Il est probable qu’un ensemble de lois étatiques traitant des modèles d’intelligence artificielle existera aux États-Unis au moment où la Loi sur l’IA sera approuvée par le Parlement européen. À ce moment-là, il y aura sûrement des appels pour une loi fédérale sur l’IA, tout comme il y en a eu lorsque le RGPD a soulevé la question de la confidentialité des données. Quoi qu’il en soit, la plupart des entreprises utilisant des technologies basées sur l’IA devront apporter des améliorations à leurs pratiques commerciales actuelles, et les entreprises innovantes s’y mettront dès que possible.
À l’avenir, les consommateurs seront beaucoup plus enclins à rechercher des entreprises dotées de modèles d’IA ouverts. De plus, les clients et les régulateurs continueront d’apprécier la capacité d’un algorithme à être compris. Il sera crucial de s’assurer que les processus décisionnels utilisés par les systèmes d’IA de votre entreprise sont visibles et compréhensibles.
Outre l’exactitude, l’ouverture, la cohérence et l’explicabilité, les biais qui fuient dans les ensembles de données et l’utilisation de données générées de manière contraire à l’éthique ont toujours été les deux principaux problèmes des modèles d’IA. Les concepteurs d’outils d’IA continueront de donner la priorité à ces préoccupations.