FO KON 

Soumettre les pratiques de l’IA au champ de l’Etat de droit en espérant que cela permette son développement, passe par le principe de précaution. Selon ce dernier, l’absence de certitudes, compte tenu des connaissances scientifiques et techniques du moment, ne doit pas retarder l’adoption de mesures effectives et proportionnées visant à prévenir un risque de dommages graves et irréversibles. 

  • Ainsi, la réglementation européenne se fonde sur un système ascendant/descendant : plus le niveau de risques lié à l’IA est élevé, plus les fournisseurs et utilisateurs de l’IA seront restreints, et vice-versa.  

 

Pour plus de clarté, le règlement propose trois seuils de risques, dans l’ordre de gravité suivant : 

 

  • Le risque “inacceptable” pour les systèmes considérés comme une « menace pour les personnes » et qui seront alors interdits.  
  • C’est l’hypothèse d’une manipulation cognitivo-comportementale des individus vulnérables, du score social et des systèmes d’identification biométrique en temps réel et à distance (avec entre autres, la reconnaissance faciale).  
  • L’interdiction radicale du score social est une réponse directe aux pratiques exercées actuellement en Chine.  
  • Néanmoins, l’interdiction n’est absolue qu’en apparence car, comme souligné par grand nombre de réfractaires, même pour les risques inacceptables, la règlementation prévoit des exceptions.  
  • Certains craignent que ce règlement, en discussion depuis 2021, manque d’interdictions, et se contente de dispositions statutaires.  
  • Par exemple, il autorise les systèmes d’identification biométrique à distance a posteriori.  
  • Néanmoins, cette dernière est encadrée et serait autorisée pour la poursuite des crimes graves, sous approbation du tribunal.  
  • Une telle garantie ne suffit pas, la Quadrature du Net et French Data Network soulignent le conflit tendancieux entre le respect du droit communautaire par les juridictions et gouvernements internes et les exigences constitutionnelles de sécurité. 
  • Le risque “élevé” concerne les systèmes d’IA ayant un impact négatif sur la sécurité ou les droits fondamentaux qui seront considérés comme à “haut risque”. Ces derniers devront alors être évalués avant leur mise sur le marché et tout au long de leur cycle de vie.  
  • Tantôt, ranger dans le même panier « sécurité » et « droits fondamentaux » pourrait faire réagir.  
  • Cette catégorie concerne à la fois les systèmes utilisés dans les produits relevant de la législation européenne sur la sécurité des produits ainsi que ceux relevant de huit domaines spécifiques. 
  • Il s’agit, entre autres, des forces de l’ordre, de la gestion des flux migratoires et l’éducation.    
  • Le risque “limité” prévoit les exigences de transparence minimale afin de permettre aux consommateurs de prendre des décisions éclairées.  
  • La règlementation traite également de l’IA générative (comme ChatGPT). 
  • Elle impose des exigences de transparence. 
  • Avec, entre autres, l’obligation d’indiquer que le contenu est généré par l’IA et l’interdiction de générer du contenu illégal.  

  

  • En effet, l’objectif majeur de la règlementation est de concilier entre la nécessité d’instaurer un cadre légal avec celle de préserver l’innovation face à un marché mondialisé et prometteur.  
  •  La règlementation devrait être appliquée en 2026.