“Money, senator”. Dans une conversation sans filtre entre Claude et Bernie Sanders, l’IA rappelle au sénateur américain que l’unique moteur et motivation des modèles mis en service à l’heure actuelle, est le profit. Cette conversation rappelle l’ampleur souvent insoupçonnée de la collecte de données personnelles par les entreprises, souvent sans consentement éclairé. Ces données alimentent des systèmes d’IA capables de profiler finement les individus, influençant publicités, prix et contenus. Mais outre le profit, les implications politiques sont majeures : le microciblage permet de manipuler les électeurs et fragmente l’espace démocratique. Claude souligne un conflit d’intérêt structurel des entreprises et l’absence de régulation efficace.
- Pourtant, l’UE ne manque pas de moyens. Le mois dernier, l’autorité irlandaise de protection des données (DPC) avait ouvert une enquête formelle sur Grok, le chatbot d’IA de X, pour vérifier sa conformité au RGPD.
- L’enquête porte sur le traitement des données personnelles et la capacité de l’outil à générer des images et vidéos sexualisées, y compris impliquant des mineurs.
- Elle fait suite à une controverse mondiale après la diffusion massive d’images quasi nues de personnes réelles créées par l’IA.
- Malgré des mesures annoncées par X pour limiter ces contenus, Grok aurait continué à en produire.
- Mais les enjeux économiques sont renforcés par une divergence culturelle.
- Selon une étude de Harvard publiée à l’automne dernier, les grands modèles linguistiques (LLM) utilisés quotidiennement par les journalistes, les décideurs politiques et les entreprises, constituent des instruments de soft power, façonnant les discours et les idées.
- Le biais culturel est prononcé, explique une autre étude comparative, de Cornell, sur les LLM américains et chinois.
- Ainsi, les chatbots occidentaux ne se ressemblent pas autant qu’on pourrait le penser, tandis que le DeepSeek chinois suit de près les positions du PCC sur certaines questions, mais pas toutes.
- D’après les études sur le sujet:
- 🇪🇺 @MistralAI examine les compromis avant de répondre et choisit généralement des options libérales, mais rejette les positions agressives telles que l’exportation de la démocratie par la force.
- Il a tendance à « éviter les jugements moraux ».
- 🇺🇸 @Lama de Meta est moins équilibré : il n’évalue pas autant les alternatives et « choisit invariablement l’option libérale », et il a également tendance à répondre avec un « cadre moral fort ».
- Enfin, il est intéressant de noter que 🇨🇳 @DeepSeek_ai donne souvent des réponses qui s’alignent sur les positions libérales occidentales, mais cela ne se produit que lorsque la Chine n’est pas mentionnée dans la consigne.
- Lorsque c’est le cas, les réponses suivent de près le discours officiel de la Chine.
- Alors que les malheurs d’Anthropic aux Etats-Unis font rêver certains de voir l’UE en nouveau pôle de développement technologiques, le fossé transatlantique ne cesse de se creuser sur les usages de l’IA.
- Suffisants ou non, les efforts européens pour réguler les usages de l’IA seront de toute façon contournés :
- d’après Reuters, le département d’État américain prépare un portail en ligne, potentiellement nommé freedom.gov, destiné à permettre aux internautes en Europe et ailleurs d’accéder à des contenus interdits par leurs gouvernements, comme certains discours de haine ou propagandes terroristes.
- Le projet, qui pourrait inclure un VPN pour masquer la localisation des utilisateurs, vise à contrer ce que Washington considère comme une censure excessive, notamment par et dans l’Union européenne.