Qui doit se préoccuper des biais de l'intelligence artificielle?

Image d'illustration | Ars Electronica/Flickr/Creative Commons

Au cours des dernières années, la dimension éthique est parvenue à se frayer un chemin au sein des recherches en intelligence artificielle. Mais à quel niveau doit se tenir cette discussion? La revue Nature s’interroge ainsi sur l’opportunité de mettre en place un comité éthique choisissant les articles publiés à l’occasion des congrès scientifiques tels que le Neural Information Processing Systems (NeurIPS), l’un des plus importants du domaine, qui s’est tenu en décembre.

Pourquoi on en parle. Les géants du numérique comme Google, aujourd’hui responsables d’une large part de la production de littérature scientifique sur la question, mettent peu à peu en place des cadres visant à limiter les biais de ces technologies, mais avec un succès relatif, et des soupçons d’opportunisme. En filigrane, l’article pose ainsi la question du contrôle éthique de ces recherches: faut-il placer le curseur au niveau des réglementations nationales, au niveau des codes de conduite des entreprises, ou au sein même du processus de production de littérature scientifique? Ou peut-être même tout cela à la fois?

link

Lire l'article de Nature