Alors que Sam Altman, patron d’OpenAI fait la tournée des décideurs européens tel un chef d’Etat, l’Union européenne cherche toujours le bon équilibre pour encadrer l’intelligence artificielle (IA) et a, à cet effet, trouvé un allié chez Google.
- Le commissaire européen pour le Numérique, Thierry Breton, s’est entretenu avec Sundar Pichai, le PDG de
- Cette rencontre conforte les avancées d’une future législation européenne sur l’IA, prévue pour entrer en vigueur d’ici fin 2025.
- Ils annoncent avoir convenu de travailler ensemble sur des règles pour réguler l’IA avec les entreprises
- L’objectif de l’UE est d’être la première à mettre en place un cadre juridique complet pour limiter les abus de l’IA.
- La proposition de règlement de la Commission européenne, dévoilée en avril 2021, imposerait des contrôles aux applications jugées à « haut risque » et prévoirait un encadrement des systèmes d’IA en interaction avec les humains.
- Le « G » des GAFAM est probablement celui qui a le plus à perdre dans la prolifération des solutions de moteurs de recherche d’IA.
- Google a récemment présenté sa vision du moteur de recherche du futur, équipé d’une IA générative.
- Alors que Google plaide en faveur d’une régulation de l’IA, l’entreprise veut également rester compétitive dans ce domaine.
Comment réglementer les IA, justement ? Le 11 mai, les commissions des libertés civiles et du marché intérieur du Parlement européen ont approuvé le AI Act. Ce texte vise essentiellement à réglementer l’intelligence artificielle.
- Fortement ancré dans une approche de régulation basée sur les risques, ce premier projet de loi aborde, entre autres, les pratiques qui menacent directement l’ordre démocratique.
- En outre, des exigences plus strictes sont proposées pour les modèles d’IA générative, c’est-à-dire les IA capables de produire des images, du son ou du texte, avec des obligations liées à la gestion des risques, à la gouvernance des données et à la transparence.
- La prochaine étape pour ce texte sera l’adoption en séance plénière, qui est provisoirement prévue pour le 14 juin.
- En outre, des exigences plus strictes sont proposées pour les modèles d’IA générative, c’est-à-dire les IA capables de produire des images, du son ou du texte, avec des obligations liées à la gestion des risques, à la gouvernance des données et à la transparence.
- La loi sur l’IA, dans sa forme actuelle, est conforme à la stratégie numérique de l’Europe, qui vise à établir un marché numérique unifié fondé sur les valeurs européennes par le biais d’une approche d’atténuation des risques.
- Cette approche est conforme à la capacité de l’UE à établir des normes, comme l’illustre par exemple le
- À travers cette évaluation rigoureuse des risques gradués associés à l’IA, on décèle une volonté d’établir un marché numérique qui peut fonctionner de manière transparente.
- Tout en promouvant la croissance sans entraver les droits des
- L’UE dispose indéniablement de capacités réglementaires ayant des implications Cependant, l’accent mis sur l’éthique de l’IA peut en effet masquer deux faiblesses :
- le manque d’investissement ;
- et l’absence de coopération stratégique entre les 27 États membres de l’UE.
- Contrairement aux États-Unis, qui sont à la pointe du développement des technologies d’IA, l’UE manque de fonds d’investissement prêts à prendre les risques nécessaires pour développer des technologies innovantes liées à l’IA.
- L’Europe serait ainsi reléguée à une position réglementaire plutôt qu’à un rôle de fer de lance dans le développement et la mise à profit de l’intelligence artificielle.
- Asma Mhalla souligne la nécessité potentielle de chercher à mener des négociations transatlantiques en la matière.
- Elle estime que s’orienter directement vers une stratégie de hard-law pourrait potentiellement heurter la souveraineté de l’UE en « ratant le virage LLM ».
- L’Europe serait ainsi reléguée à une position réglementaire plutôt qu’à un rôle de fer de lance dans le développement et la mise à profit de l’intelligence artificielle.