Renforcer les garde-fous de l’IA

 

Brando Benifei

par Brando Benifei Député européen, chef de la délégation italienne du Groupe S&D et co-rapporteur sur le règlement IA

Le 14 juin 2023, le Parlement européen a franchi une étape décisive vers l’adoption de règles communes pour les États membres de l’UE en matière d’intelligence artificielle (IA), en approuvant à une très large majorité de 499 voix pour – et avec seulement 28 voix contre et 93 abstentions -, le mandat de négociation à présenter au trilogue avec le Conseil et la Commission européenne.

Le vote a confirmé le texte approuvé le 11 mai dernier, également à une très large majorité par les commissions mixtes Marché intérieur (IMCO) et Libertés civiles (LIBE) : le soir même du vote, la première réunion de négociation a eu lieu, et il est possible que d’ici la fin de cette législature européenne, l’objectif historique de la première réglementation globale en la matière à l’échelle mondiale soit atteint.

Le règlement doit concilier différents problèmes et objectifs : établir un système de gouvernance, gérer les risques de l’IA, établir des obligations et des interdictions pour les fournisseurs et les utilisateurs, définir des protections pour les citoyens (par exemple dans le domaine de la vie privée et de la non-discrimination), et promouvoir le développement de l’innovation et de la technologie conformément aux valeurs de l’UE. Les négociations ont été particulièrement difficiles en raison de l’ampleur et de la complexité des questions en jeu, mais surtout parce que des positions très différentes ont été défendues, même au sein des mêmes groupes politiques, et parce que des applications telles que le Chat GPT-4 sont apparues au cours du processus d’approbation, ce qui a eu un grand impact sur le public.

Une première question concerne donc le système de gouvernance, qui sera très important pour « guider » la première phase, où il y aura certainement des désaccords sur l’application des règles, et ensuite « accompagner » la régulation d’un sujet qui évolue très rapidement. Il est prévu de créer un Office européen de l’intelligence artificielle, doté de la personnalité juridique et indépendant de la Commission européenne, auquel il donnera des avis sur la mise en œuvre du règlement et le développement de l’IA. Les États membres doivent désigner une autorité nationale de contrôle, avec les mêmes exigences d’indépendance et de ressources adéquates : le conseil d’administration de l’Office de l’intelligence artificielle est composé de représentants des autorités nationales, de la Commission, du Contrôleur européen de la protection de la vie privée, de l’Agence européenne pour la cybersécurité et de l’Agence européenne des droits fondamentaux. Nous avons également prévu un forum consultatif pour garantir une participation permanente des différentes parties prenantes, des acteurs économiques et de la société civile.

Le règlement définit une série d’interdictions générales et établit une gradation des obligations et des responsabilités en fonction des différents niveaux de risque de violation des droits : la deuxième grande question concerne la réglementation des systèmes d’intelligence artificielle dits à haut risque. Par rapport à la proposition de la Commission européenne, pour être classés dans cette catégorie, les systèmes d’intelligence artificielle doivent désormais présenter un « risque significatif » d’atteinte à la santé, à la sécurité et aux droits fondamentaux : l’application sera délicate car différents aspects tels que la gravité, l’intensité, la probabilité d’atteinte et la durée des effets devront être évalués. Nous sommes également parvenus à inclure dans certains domaines le risque d’atteinte à l’environnement et à étendre le champ d’application aux systèmes d’intelligence artificielle liés à la fourniture de services essentiels, dédiés à la gestion des migrations et des frontières, ou visant à influencer les électeurs lors de campagnes politiques et à recommander des contenus par l’intermédiaire des principales plateformes de médias sociaux.

Socialistes et démocrates avons ensuite réussi à obtenir un bon compromis sur une troisième controverse importante, à savoir la vidéosurveillance, où la position ultra-sécuritaire était également fortement soutenue par certains gouvernements nationaux de centre-droit, et un vote séparé sur cette question a été demandé dans les commissions conjointes IMCO et LIBE en mai dernier. Par rapport au projet de loi sur l’IA présenté par la Commission européenne, nous avons établi que les logiciels d’identification biométrique ne peuvent être utilisés qu’a posteriori et uniquement dans le cadre d’enquêtes sur des « crimes graves » pour lesquels les enregistrements vidéo doivent être analysés avec l’autorisation des autorités judiciaires. En même temps, on a interdit toute identification biométrique effectuée en temps réel et dans des lieux publics : l’un des effets les plus importants est donc l’impossibilité d’utiliser des formes de reconnaissance faciale, par exemple, pour lutter contre l’immigration illégale ou la défense des frontières nationales, qui relèvent clairement des « lieux publics ».

Toujours très importante pour notre groupe politique est l’introduction de l’obligation de réaliser une étude d’impact sur les droits fondamentaux par ceux qui déploient un système d’IA à haut risque sur des personnes. Seul l’utilisateur final peut en effet disposer d’informations précises sur le contexte et la population cible spécifique à laquelle il entend appliquer une IA. À cela s’ajoutent deux mesures importantes pour la protection des travailleurs : l’obligation, toujours pour l’utilisateur final, d’impliquer les syndicats dans un accord avant d’introduire un système d’IA sur le lieu de travail, et d’informer les travailleurs. Elle ajoute que l’emploi étant une question de compétence partagée, qui ne se prête pas à une réglementation, l’UE et les États membres ont toujours la possibilité d’introduire des mesures plus strictes en la matière.

Le règlement est long et très explicite, mais j’aimerais aborder brièvement deux autres points. Nous avons étendu le champ d’application du règlement aux « modèles fondamentaux », qui ne sont pas encore de véritables systèmes d’IA, mais des modèles développés et « entraînés » sur des millions de données, qui peuvent être intégrés dans des systèmes d’IA : l’exemple le plus connu est le « GPT », qui est le modèle fondamental sur lequel est basé le Chat GPT-4. Pour ces modèles, les fabricants doivent identifier les éventuels risques prévisibles pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit, et définir les contrôles appropriés. Enfin, chaque État membre doit définir un cadre réglementaire pour favoriser l’innovation et veiller à ce qu’une entreprise utilisant un bac à sable réglementaire – un espace d’expérimentation dans un environnement contrôlé – dispose d’un plan spécifique convenu avec l’autorité responsable pour tester son innovation pendant une période limitée.

 

 

 


Publication originale du Progressive Post du 15 juin 2023, en anglais.
Cette publication en français résulte du partenariat conclu avec la Foundation for European Progressive Studies (FEPS) afin de promouvoir la diffusion des travaux menés par celle-ci et publiés par le Progressive Post. Nos plus chaleureux remerciements à la Rédaction et à la FEPS pour leur confiance.