| | Vidéo

VIDÉO - Le sexisme des algorithmes expliqué par Angèle

A l’occasion de ce 8 mars et de cette Journée internationale des droits des femmes, plongeons-nous dans les algorithmes. Ils sont utilisés pour embaucher chez Amazon, pour fournir vos feeds Instagram ou Facebook ou pour faire fonctionner les reconnaissances vocales d’Apple. Isabelle Collet, informaticienne et professeure à l’Université de Genève nous explique, grâce à la chanteuse Angèle, en quoi les algorithmes peuvent être accusés de sexisme dans ce bonus de PopScience. A visionner ci-dessus!

Ce qui pose problème. Codés par des humains, les algorithmes sont accusés de sexisme et de bien d’autres maux. Un exemple simple raconté par Isabelle Collet. Quand on demande à Google «qu’est-ce qu’une “écolière”? », le moteur de recherche a sa propre réponse:

«Quand on tape “écolier”, on a des enfants qui vont à l'école. “Ecolière”, on a également des jeunes filles en costume d'écolière, érotisées.»

«C’est tentant de leur montrer, même si c’est pas vrai», chante Angèle dans «Victime des réseaux». Et les exemples sont multiples, à l’image de l’algorithme d’Instagram qui semble privilégier les contenus proches de la nudité.

Mais alors, qui blâmer? Ces lignes de codes sont-elles responsables des résultats affichés? Pas vraiment. La source du problème se trouve dans les politiques qu’on leur dicte, mais aussi issue de données «biaisées», utilisées par exemple par Google pourtant l’un des moteurs de recherche les plus performants du Web:

«Ce qu'il faut entendre par données biaisées, c'est que ce sont des données réelles qui sont entrées, mais comme elles ont été créées par des humains qui ont des biais sexistes, elles sont tout sauf neutres.»

Les algorithmes fournissent alors «une version plus stéréotypée de la réalité», souligne Isabelle Collet. C’est ce qui est arrivé à Amazon quand l’entreprise de Jeff Bezos a souhaité automatiser ses recrutements à l’aide d’une intelligence artificielle (IA). Le problème? L’IA a sélectionné les CV en se basant sur la manière dont Amazon recrutait auparavant les personnes: préférentiellement des hommes, en leur donnant les plus longues carrières et les meilleurs salaires. Un système reproduit par les algorithmes, que l’on a accusé. Isabelle Collet:

«Alors Amazon a dit: “C'est l'IA qui est sexiste.'“ Non, c'était sa politique de ressources humaines qui l'était. L'IA a servi de bouc émissaire.»

Ces biais sexistes sont aussi le résultat d’un manque de mixité dans les milieux technologiques, qui conçoivent les algorithmes. Illustration avec les outils de reconnaissance vocale:

«Les voix d'hommes étaient mieux reconnues par l'intelligence artificielle que les voix de femmes parce que l'IA avait été entraînée sur des voix d'hommes.»

Balance ton algorithme. Seulement sexistes, les algorithmes? Non, ils sont également accusés de racisme:

«Des produits, par exemple, la reconnaissance faciale, sont arrivés sur le marché marchaient parfaitement avec des personnes blanches, mais pas du tout avec des personnes non blanches.»

Encore une fois, la mixité lors des phases de production de ces technologies fait défaut.

Ce que l’on peut corriger. Peut-on prétendre à des algorithmes parfaits, totalement en phase avec la société? Cela semble utopique pour Isabelle Collet, qui préfère temporiser:

«Etant donné le volume de données biaisées qu'on a, ce ne sont pas cinq ou dix ans qui vont changer les choses.»

La recette miracle de l’algorithme parfait n’existe encore donc pas. Si certaines avancées ont eu lieu, le sujet reste épineux:

«Il y a eu une conférence sur l'éthique dans l'intelligence artificielle et 21 définitions ont été dégagées. Philosophiquement c'est passionnant. En terme de programmation, c'est compliqué.»

Comme le dit Angèle dans son dernier tub «Fever»: «Peut-être qu’avec du temps, ça partira».

Heidi.news sur Telegram, chaque fin de journée, recevez les articles les plus importants.
Inscrivez-vous!

Lire aussi