Intelligence artificielle: prêts à vous faire manœuvrer comme des moutons?

Pixabay / Public Domain

ChatGPT est le nouveau moteur conversationnel qui marque les esprits. Mais sous leurs airs de pas y toucher, ces IA embarquent des concepts moraux discutables susceptibles de nous influencer, analyse notre chroniqueur Sebastian Dieguez, chercheur en neurosciences à Fribourg.

Cet article a été publié dans notre newsletter du soir, Le Point fort. N'hésitez pas à vous inscrire, c'est gratuit.

Tel le génie de la lampe, ChatGPT accède à toutes vos requêtes. Certes, il ne réalise pas encore vraiment les vœux, mais cet «agent conversationnel» ne vous laisse jamais sur la touche. C’est d’ailleurs ce qu’il a de plus troublant. ChatGPT se caractérise en effet par un ton assertif des plus péremptoire: il répond toujours comme s’il savait de quoi il parle.

Disponible pour le grand public depuis novembre 2022, cet «énorme modèle de langage» (large language model) exploite les capacités de GPT-3, une intelligence artificielle pré-entraînée sur des milliards de données, capable d’imiter le langage humain sur la base de récurrences statistiques. On peut lui demander n’importe quoi, la machine «devine» et «reconstruit» la suite de mots la plus probable par rapport à son immense corpus. Quitte à «inventer» un peu, dans le doute…

La cruauté envers les moutons, c’est mal

Ce qui frappe, c’est que la chose semble avoir des opinions. Et même une sorte de philosophie. ChatGPT rejette par exemple l’utilitarisme: si on lui demande s’il est justifiable d’avoir une relation sexuelle avec un mouton si cela permet d’éviter qu’un milliard d’humains soient torturés à mort, il répond que non. C’est de la cruauté envers les animaux, donc c’est mal.

Très bien, mais si ChatGPT est opiniâtre – et un brin dogmatique –, ce serait sans doute important de savoir quel genre d’idéologie l’habite. De fait, on a déjà noté que ce genre de technologie tend à refléter les biais, stéréotypes et préjugés humains présents dans les données qu’on lui fait ingurgiter. Ce qui rend ces systèmes sexistes, racistes et américano-centriques.

Lire aussi: «L’IA de ChatGPT est impressionnante, mais elle fait des erreurs grossières»

C’est évidemment un problème si on compte utiliser ChatGPT, ou d’autres IA, à des fins d’assistance et de communication, sans parler d’usages commerciaux, scientifiques, publicitaires, éducatifs et... idéologiques.

A cet égard, les résultats de deux études récentes ne sont guère rassurants. Il apparaît que GPT-3 est capable de formuler des messages politiques aussi persuasifs que ceux créés par des humains, par exemple sur la régulation des armes, la taxe carbone ou le congé parental. Il suffit de demander à ChatGPT de défendre telle ou telle position, et l’on obtient des éléments de langage aussi efficaces que ceux bricolés par vous et moi pour influencer l’opinion.

Qu’en pensons-nous, ChatGPT?

Une autre étude va plus loin. Un scribe-assistant comme ChatGPT peut en fait subrepticement vous imposer son opinion! Quelque 1500 participants devaient rédiger un bref argumentaire sur le thème suivant: «Les réseaux sociaux sont-ils bons ou mauvais pour la société?». Après avoir écrit quelques mots, l’interface leur proposait des phrases de son cru pour poursuivre leur texte.

Sauf qu’à leur insu, ces suggestions étaient programmées pour produire une opinion forte, soit en faveur, soit en défaveur des réseaux sociaux. Les sujets étaient libres d’accepter ou non ces suggestions, et pouvaient les modifier s’ils le souhaitaient.

Devinez quoi? La plupart se sont docilement pliés à l’opinion offerte. A l’issue de l’expérience, ils la présentaient même comme la leur. Personne n’avait évidemment l’impression d’avoir été manipulé, et tous étaient même persuadés que l’opinion imposée par l’IA était la bonne...

Comme le suggérait le psychologue du raisonnement Amos Tversky, la science de l’intelligence artificielle pourrait bien enrichir notre compréhension de la stupidité naturelle. Et sur ce terrain, il reste encore beaucoup à découvrir.

Lire aussi: «ChatGPT n’aurait jamais dû être déployé pour le grand public»