L’IA à l’épreuve du temps : une réglementation au service de l’innovation, des droits humains et du progrès sociétal

 

Virginia Dignum

par Virginia Dignum Professeure, Département d’informatique de l’Université d’Umeå (Suède).

Comment réglementer l’IA de manière à ce qu’elle renforce l’innovation et la compétitivité, qu’elle soit à l’épreuve du temps, qu’elle protège les droits fondamentaux et qu’elle apporte des avantages à la société ? C’est la tâche que s’est fixée l’Union européenne avec l’introduction de  l’IA Act, qui a été approuvée par le Parlement européen le 14 juin.

L’établissement d’un cadre juridique européen complet et évolutif de principes éthiques pour le développement, le déploiement et l’utilisation de l’IA est une tâche importante. Elle a des implications non seulement pour l’Europe, mais aussi pour le monde entier, ainsi que pour le rôle des applications de l’IA, leur développement et leur utilisation dans notre monde. Cependant, même aujourd’hui, l’IA n’existe pas dans un vide réglementaire. Nous ne partons pas de zéro : de nombreuses lois, directives, normes et lignes directrices s’appliquent déjà aux systèmes, produits et résultats de l’IA. Il est tout aussi important de favoriser une meilleure compréhension et intégration de tous ces cadres existants que d’introduire davantage de réglementation. Dans le même temps, une compréhension trop étroite de ce qui constitue un système d’IA n’améliorera pas la confiance du public. Du point de vue des personnes affectées par la technologie, en particulier par des erreurs dans la prise de décision automatisée, il importe peu que la décision ait été prise à l’aide d’un algorithme d’IA sophistiqué ou d’une simple feuille de calcul : si elle est erronée, elle doit être corrigée, que l’IA ait été impliquée ou non.

L’impact potentiel de l’IA sur la société est énorme, tant sur le plan positif que négatif. En particulier, il est crucial d’aborder les conséquences éthiques des systèmes d’IA, telles que

  • Le manque de transparence des outils d’IA : Les décisions de l’IA ne sont pas toujours compréhensibles pour les humains.
  • L’alignement des valeurs : L’IA n’est pas neutre et, par conséquent, les décisions basées sur l’IA sont susceptibles d’être inexactes, d’aboutir à des résultats discriminatoires et de comporter des préjugés intégrés ou insérés.
  • La marchandisation : nous et nos sociétés sommes plus que les données disponibles à notre sujet, et en même temps, la collecte et la gestion des données soulèvent des inquiétudes quant à la vie privée des utilisateurs.
  • Déséquilibres de pouvoir : de plus en plus, la capacité à déployer et à tirer profit des grands systèmes d’IA est concentrée entre les mains de quelques organisations (essentiellement privées). Cela pose des problèmes de responsabilité démocratique et aggrave les fractures sociétales et économiques.

La plupart des parties prenantes s’accordent sur la nécessité d’une certaine forme de réglementation dans le paysage de l’IA et de la technologie numérique. Les efforts de réglementation doivent tenir compte à la fois des capacités actuelles de l’IA et des développements futurs, en particulier dans les modèles d’IA générative, qui peuvent être appliqués de diverses manières avec des risques variables. Par exemple, les risques liés à l’utilisation de ces systèmes pour résumer un article de journal sont très différents de ceux liés à l’utilisation de la même technologie pour donner des conseils médicaux. Les processus réglementaires doivent surveiller ces développements, de manière à orienter la recherche et l’innovation responsables plutôt que d’inhiber les nouveaux développements.

Les processus réglementaires doivent guider la recherche et l’innovation responsables sans étouffer le progrès. En essayant d’équilibrer le progrès scientifique avec des considérations éthiques et la prévention des dommages, des leçons peuvent être tirées des réglementations existantes concernant les manipulations génétiques. Il est donc essentiel d’examiner les implications pour la législation sur l’IA d’une étude sur la réglementation des technologies génétiques publiée en 2021 par la Commission européenne, qui a établi que les limites de la capacité de la législation à suivre le rythme des développements scientifiques peuvent entraîner des difficultés de mise en œuvre ainsi que des incertitudes juridiques.

Des mesures concrètes (techniques, organisationnelles et juridiques) doivent être prises dès maintenant pour que la législation sur l’IA garantisse une innovation continue et des développements scientifiques conformes aux droits de l’homme et aux valeurs sociétales, plutôt que de devenir un fardeau dans le processus de développement. En outre, une réglementation efficace de l’IA doit impliquer une coopération et une coordination internationales en raison de la nature transnationale de la recherche et du développement, de l’impact sociétal et environnemental potentiel et des stratégies géopolitiques. Dans le cas de la technologie génétique, le protocole de Carthagène sur la biosécurité vise à établir des lignes directrices et des procédures communes. En revanche, la coordination mondiale des réglementations en matière d’intelligence artificielle est actuellement moins bien établie, même si des discussions et des initiatives sont en cours pour promouvoir la coopération internationale dans ce domaine, notamment par l’UNESCO, l’OCDE et le Partenariat mondial sur l’intelligence artificielle (GPAI).

Contrairement à ce que l’on peut lire actuellement sur les risques existentiels, l’IA n’est pas hors de contrôle, mais nous perdons le contrôle sur ceux qui la développent et l’exploitent. Toutefois, exiger des organisations qui développent et déploient des systèmes d’IA qu’elles assument leurs responsabilités et rendent des comptes doit s’accompagner de mesures concrètes en matière de gouvernance, tant au niveau national qu’au niveau mondial. Il ne s’agit pas seulement de belles paroles sur les principes que l’IA devrait suivre, mais de solutions concrètes. Par exemple, des exigences sur les conditions préalables à la mise à disposition de ces systèmes : des exigences techniques sur la transparence et l’explicabilité, des exigences sur l’audit des organisations qui déploient ces systèmes, et peut-être aussi des exigences sur l’expertise de ceux qui utilisent les systèmes. Nous ne laissons pas non plus les entreprises pharmaceutiques mettre sur le marché des médicaments sans procéder à de nombreux tests, ni les gens conduire des voitures sans permis de conduire.

Il est essentiel d’éviter d’adopter un discours de « course aux armements » qui implique une ligne d’arrivée singulière, où les perdants et les gagnants peuvent être identifiés, et qu’il y a une seule direction à suivre vers cette ligne. Un tel discours nuit à la recherche et au développement systématiques et à long terme nécessaires pour explorer les conséquences, améliorer les technologies de l’IA et leur mise en œuvre, et affiner les réglementations. À ce stade, le rôle principal de la réglementation est d’encourager cette exploration. L’innovation responsable, axée sur la durabilité et les droits de l’homme fondamentaux, devrait servir de support principal à la réglementation. Tout comme les innovations exploratoires ont conduit à des normes plus élevées dans divers secteurs, de l’énergie verte aux initiatives de commerce équitable ou aux lampes LED, nous avons besoin de toute urgence d’innovations responsables en matière d’IA qui présentent des alternatives responsables, durables et dignes de confiance aux développements actuels de l’IA.

Au lieu de considérer la réglementation comme une contrainte pour l’innovation, il faut la considérer comme un puissant tremplin pour l’innovation. Comme un phare, la réglementation signalera les ambitions attendues de l’innovation.

 

 

 


Publication originale du Progressive Post du 15 juin 2023, en anglais.
Cette publication en français résulte du partenariat conclu avec la Foundation for European Progressive Studies (FEPS) afin de promouvoir la diffusion des travaux menés par celle-ci et publiés par le Progressive Post. Nos plus chaleureux remerciements à la Rédaction et à la FEPS pour leur confiance.