| | idées

Les triomphes de l'intelligence artificielle ne doivent pas en occulter les limites

Sarah Sermondadaz

Il ne se passe pas une semaine sans qu’on entende l’un ou l’autre exploit d’une intelligence artificielle (IA): il se dit que l’IA ferait mieux que les radiologues professionnels pour lire les mammographies et dépister un cancer du sein, qu’elle va aider les recruteurs grâce à l’analyse automatisée du visage. D’aucuns craignent aussi qu’elle ne détruise nos emplois. Mythe ou réalité? Qu’y a-t-il dans le ventre de ces outils prédictifs et autres algorithmes de reconnaissance d’image?

Il est nécessaire voire urgent de faire la part des choses entre les promesses, qui relèvent parfois du fantasme pour «technoprophète», et la réalité de leur fonctionnement. Et surtout, il est utile de rappeler les limites inhérentes à cet ensemble de technologies.

Il n’y a pas une mais des intelligences artificielles

Les bases théoriques de l’intelligence artificielle ne sont pas particulièrement neuves: elles trouvent leurs racines à la fin des années 1950. Mais la définition de l’IA a beaucoup évolué au cours des décennies: dans les années 1960/1970, on qualifiait d’intelligence artificielle des concepts utilisés dans quasiment tous les logiciels aujourd’hui.

Qu’est-ce que l’IA? Et quelles technologies recoupe-t-elle?

  • Par IA, on entend ce qui permet à une machine de simuler l’intelligence. Pour ce faire, plusieurs approches coexistent: soit l’on connaît la nature exacte de ce qu’on cherche à simuler, et on peut le programmer chez la machine à partir de règles simples, soit on ne sait pas le faire de façon explicite, et on induit l’apprentissage à partir d’un grand nombre d’exemples.

  • Cette seconde idée est ce qu’on appelle le machine learning, ou apprentissage automatique. On pourrait dire, de façon imagée et en grossissant le trait, qu’il s’agit de construire une sorte de régression linéaire à partir d’un nuage de points.

  • Lorsque les algorithmes d’apprentissage exploitent des réseaux de neurones artificiels, on parle de deep learning. Mais qu’on se rassure: il ne s’agit pas d’imitations électroniques de neurones humains, mais de simulations numériques, où le terme de «neurone» n’a qu’une portée purement métaphorique. Pendant l’apprentissage à chaque itération, chaque neurone formel du réseau peut ajuster son action en fonction du signal reçu, jusqu’à aboutir au signal souhaité en sortie. Sans rentrer dans les détails techniques, plusieurs variantes existent en fonction des types de réseaux et de connexion entre ces neurones formels. La vraie révolution est que l’algorithme se programme tout seul en fonction des données qu’on lui fournit. Emmanuel Mogenet, ancien directeur de la recherche chez Google à Zurich, l’expliquait en ces termes en 2018:

«Lorsque je marche, je suis incapable de décrire précisément le mouvement de chacun de mes muscles. La vraie révolution du deep learning, c'est l'apprentissage par l'exemple. Ainsi, en montrant à l'algorithme des images comportant un chat, puis d'autres sans chat, et en lui signalant à chaque fois la bonne réponse attendue, l'ordinateur apprend à reconnaître les chats parmi une bibliothèque d'images. Au bout d'un certain nombre d'images, la magie opère : le système se met à généraliser, et sait reconnaître l'animal sur des photos qu'il n'a jamais vues.»

  • Ultime niveau de détail: on parle d’apprentissage supervisé ou non supervisé, selon que les données qui alimentent l’algorithme aient été préparées ou non par une tierce personne. L’apprentissage non-supervisé est souvent vu comme un «graal» par les spécialistes du domaine. Et pour cause: avec l’apprentissage supervisé, reste dévolue à l’humain la laborieuse tâche consistant à étiqueter les données. En reprenant l’exemple précédant, cela veut dire indiquer sur un grand nombre d’images si elles contiennent — ou non — un chat, sans parler du risque d’erreur car cette tâche est souvent externalisée, déléguée à des travailleurs précaires, parfois surnommés «travailleurs du clic».

  • Lorsque ces technologies sont employées pour analyser des données passées et en extrapoler des hypothèses sur le futur, on parle d’analyse prédictive.

30212411048_2a1d7200e2_c.jpg
L'IA est souvent représentée sous des traits humanoïdes, mais son mode de raisonnement n'a rien à voir avec la cognition humaine... | Mike MacKenzie/Flickr/CreativeComons

Des limites d’abord conceptuelles

Pourquoi entend-on surtout parler d’IA depuis 2010? L’apprentissage automatique, de par les simulations numériques successives qu’elle requiert, nécessite une puissance de calcul conséquente. Et surtout, elle nécessite que de larges quantités de données soient disponibles, ce qui a été permis par l’essor des big data, l’avènement des réseaux sociaux, l’essor des objets connectés, et de façon plus générale, la tendance du quantified self, qui vise à «mettre sa vie en données». Depuis une dizaine d’années, les planètes sont alignées. La quantité de données générées par an croît de façon exponentielle: de 1,2 zettaoctets (milliards de téraoctets) en 2010, l’on devrait dépasser en 2020 les 44 zettaoctets, selon les estimations du cabinet de conseil IDC.

Cela posé, le machine learning souffre de deux écueils – et non des moindres:

  • Ces algorithmes de machine learning sont tout sauf «intelligents«, dans la mesure où ils ignorent pourquoi la réponse est A plutôt que B. Le Français Yann LeCun, lauréat du prix Turing et responsable de la recherche en IA chez Facebook, aime à prononcer cette petite phrase assassine:

«Les intelligences artificielles les plus abouties ont moins de sens commun qu'un rat!

Les humains, comme les animaux, apprennent à partir de très peu d'exemples, ce qui est un mystère pour les ordinateurs. Mon hypothèse, c'est que nous établissons rapidement des modèles prédictifs du monde. Aucun humain n'apprend comme le font les machines, à partir d'un calcul mathématique se basant sur des millions d'exemples.»

  • Aussi puissants qu’ils soient, ces algorithmes de deep learning souffrent aussi d’un talon d’Achille problématique: l’explicabilité. Impossible, pour les spécialistes, d’expliquer a posteriori pourquoi précisément l’algorithme s’est trompé! Car la source de l’erreur ne réside pas dans une ligne de code à corriger, mais dans les données d’apprentissage utilisées et la façon dont l’algorithme a bâti son modèle. A lui seul, le modèle est trop complexe — certains peuvent faire intervenir jusqu’à plusieurs millions de variables — et n’a aucune valeur d’explication. Les spécialistes doivent ainsi doubler l’algorithme d’un modèle déterministe plus classique s’ils veulent savoir à quel étape survient un problème donné.

Les mirages de l’intelligence artificielle

Mais l’IA, plus que tout autre outil technologique, n’est pas neutre, dans la mesure où elle modifie profondément nos usages. Imaginez: dans un monde parallèle où l’on n’aurait pas inventé de marteau, personne ne songerait à planter des clous au mur pour y accrocher un cadre… En retour, les technologies prédictives nous enferment dans un nouveau cadre… qui correspond à nos actions passées! Quelques exemples: l’auto-complétion des requêtes saisies sur Google en fonction de votre historique de recherche, ou sur votre clavier de smartphone en fonction des séquences de mots les plus souvent saisies à la suite. Appliquées aux situations sociales, l’on comprend aussi en quoi les algorithmes peuvent pérenniser les inégalités.

Et ce n’est pas tout: s’ajoute aussi, dans certains cas, une dimension de bluff technologique. En mars 2019, un rapport du cabinet d’investissement britannique MMC observait que 40% des start-up européennes se réclamant de pratiquer l’IA utilisaient en fait des algorithmes plus classiques. On l’a vu plus tôt, la définition de ce qu’est ou non une IA est certes sujette à caution, mais cet exemple montre encore quelque chose qui n’aura échappé à personne: l’IA est devenue un buzzword que l’on emploie volontiers lorsqu’on a quelque chose à vendre, et que l’on souhaite ne pas trop entrer dans les détails, parce que, vous l’avez compris: c’est compliqué.

La professeure française Laurence Devillers, spécialiste de l’IA et de la robotique sociale, expliquait ainsi à Heidi.news que le caractère humanoïde de certains robots, comme Sophia développé par Hanson Robotics, qui reproduit le visage de l’actrice Audrey Hepburn, ne doit pas faire oublier que si des IA peuvent imiter des émotions humaines, ils ne peuvent lire les nôtres.

robots.jpg
Malgré sa beauté troublante, l'androïde Sophia n'est pas capable d'interactions construites, elle suit en réalité un script prédéfini | tWorld Economic Forum / Pierre Abensur

Ouvrir les boîtes noires et en expliciter les biais

Il y a quelques jours, Heidi.news s’interrogeait sur les faits et méfaits de l’analyse prédictive. En réalité, les prédictions de la science des données souffrent de quelques biais, dont ses utilisateurs n’ont pas toujours conscience. En voici quelques uns:

  • l’erreur de mesure. Elle résulte de l’incertitude de la chaîne de mesure, qu’elle soit le fait de capteurs numériques ou de la lecture par des personnes humaines. Lorsqu’on évoque un test diagnostic en médecine, ce phénomène est à l’origine de ce qu’on appelle «faux positif» ou «faux négatif», c’est-à-dire, lorsqu’une personne est considérée comme malade alors qu’elle ne l’est pas, ou alors non-malade alors qu’elle l’est.

  • le biais de sélection. Les données utilisées ne sont pas toujours représentatives du contexte où l’on souhaite utiliser un algorithme prédictif. Par exemple, si on apprend à un algorithme de machine learning à identifier les criminels potentiels à partir de données des prisons américaines, qui contiennent davantage d’afro-américains, on obtiendra un algorithme raciste qui aura tendance à davantage classer les noirs comme criminels en puissance que les blancs. Ce biais, qui résulte de l’échantillonnage initial des données d’apprentissage, peut aussi se doubler de l’erreur d’exclusion lorsque des populations entières sont écartées des données — par exemple, les femmes, longtemps mal prises en compte par les études pharmaceutiques — et avoir des répercussions sexistes. On appelle ce manque de diversité le «white guy problem». Mais le monde de la tech, des GAFA à Microsoft en passant par l’Unesco, en a pris conscience au cours des derniers mois.

  • la reproduction du passé. Imaginons désormais un algorithme de police prédictive qui cible les quartiers où la police doit en priorité réaliser ses rondes, en fonction des statistiques de la délinquance. En observant en priorité là où l’on a déjà vu de la violence, si aucune mesure curative n’est entreprise par ailleurs, on va continuer à en observer. Et en concentrant des efforts forcément limités dans certaines zones données, on créera des zones d’ombre, faute d’observation dans d’autres quartiers.

Au-delà de ces biais possibles, un problème de l’IA réside surtout dans son usage pour prédire des phénomènes sociaux, alors même que la société est par essence un système complexe, si ce n’est chaotique, et que malgré l’essor des big data, on n’a toujours pas réussi à la mettre en équations, pour autant que cela soit possible...

Les enjeux et les paris sur l’avenir

Il nous faut désormais avoir les idées claires, au delà des promesses de développement économique de ces nouvelles technologies, et ne pas se laisser aveugler. Parmi les multiples enjeux, on peut noter:

  • la transparence. Expliciter au maximum le type d’algorithme utilisé, et s’il s’agit de machine learning, les données d’apprentissage utilisées, s’assurer de leur représentativité, et s’assurer qu’elles ne pérennisent pas des inégalités pré-existantes.

  • la maîtrise. Ces technologies peuvent représenter de formidables outils d’aide à la décision, pour les médecins, les RH, voire les avocats en les aidant par exemple à débroussailler rapidement une jurisprudence touffue. Mais ceci uniquement si leurs concepteurs communiquent davantage sur leurs biais et leurs limites, et n’y voient pas là un argument anti-commercial. C’est à cette condition que les utilisateurs, ou plutôt utilisateurs-experts, pourront choisir en tout état de cause quand débrancher la machine.

  • la résilience. Être capable de reprendre la main à tout moment en mode dégradé. Plutôt que de laisser les prédictions mener la danse, n’oublions pas que c’est à partir de l’exemple humain que la machine apprend…

Chaque jour, la newsletter qui vous livrera infos, témoignages et analyses au cœur des hôpitaux.

Lire aussi