A-t-on peur des IA comme ChatGPT pour les bonnes raisons?
Les IA génératives interrogent et inquiètent. Mais moins que leur intelligence, toute relative, l'enjeu repose sur les façons imprévisibles dont l'être humain peut interagir avec elles.
Cet article a été publié dans notre newsletter du soir, Le Point fort. N'hésitez pas à vous inscrire, c'est gratuit.
La révolution des IA génératives (ChatGPT, Bard...) ne fait que commencer, et déjà, les inquiétudes se multiplient, entre appel au moratoire invoquant une «menace existentielle» pour notre civilisation et risques de déstabilisation du marché du travail. Faut-il écouter les Cassandre? Les spécialistes eux-mêmes reconnaissent avoir été pris de cours… Mais peut-être pas pour les raisons que vous imaginez.
Gardons la tête froide. ChatGPT et ses consœurs sont bien plus qu’un phénomène de mode: elles sont là pour rester. Nos imaginaires abreuvés de science-fiction nous font craindre l’émergence d’une «singularité», ce point de bascule hypothétique où des IA commenceraient à s’améliorer elles-mêmes, jusqu’à voir ses facultés dépasser celles de ses créateurs humains…
Au-delà des fantasmes, ces IA posent une double question:
Sur la nature de leur «intelligence»: que peut-elle, et que ne peut-elle pas? Dans quelle mesure diffère-t-elle de la nôtre?
Sur leur utilisation par l’humain: ne risque-t-on de les utiliser à contre-emploi, en leur demandant de nous assister sur des décisions morales?
Lire notre dossier: Tout comprendre à ChatGPT et aux IA génératives
Ouvrir la boîte noire. Pour évaluer l’«intelligence» de ces modèles, il faut d’abord saisir comment ils fonctionnent. Il s’agit de modèles informatiques auto-apprenants, qui ont ceci de particulier qu’ils sont entraînés à partir d’un corpus immense. Des textes, écrits de main d’homme, pour les large language models (LLM) comme GPT, le moteur de langage derrière ChatGPT.
«Il en découle trois qualités remarquables», écrivait dans Le Temps le professeur François Fleuret, directeur du groupe de recherche sur le machine learning de l’Université de Genève.
«La première est que, alors que le programme de départ, écrit de manière traditionnelle, est relativement simple, la complexité du programme final, après apprentissage, est immense.
La deuxième est que ces systèmes sont capables de résoudre des problèmes qui demandent des critères tellement complexes qu’aucun programmeur humain ne pourrait les concevoir.
La troisième enfin, et certainement la plus surprenante, est que le fonctionnement de ces programmes une fois entraînés est pour l’essentiel incompréhensible.»
Lire aussi: Les triomphes de l'intelligence artificielle ne doivent pas en occulter les limites
Incompréhensible, c’est-à-dire? Contacté par Heidi.news, François Fleuret, précise:
«Les mathématiques derrière les modèles d’intelligence artificielle ne peuvent nous renseigner en profondeur sur la compréhension – ou non – qu’ils ont du monde.
Ce qui rend les choses si compliquées, c’est qu’il s’agit de deux niveaux distincts: même si l'on comprend la physique des atomes qui composent le cerveau, on n'est pas pour autant capables d'en déduire des principes de psychologie. Or, de ces modèles d’IA commencent à émerger des choses qui ressemblent à des raisonnements...»
Le langage parfois fleuri des machines. Les débuts des LLM n’ont pas été faciles: en 2016, Microsoft avait dû se confondre en excuses quand son chatbot Tay, qui avait appris à parler à partir d’un corpus de tweets, s’était mis à tenir des propos racistes et antisémites… Pour éviter un tel contrecoup avec ChatGPT, OpenAI a doté son chatbot d’une couche logicielle chargée de filtrer les réponses proposées.