| | News

Des chercheurs valaisans contre les biais racistes de l'IA

L'IDIAP a déjà créé 10000 visages de synthèse pour éliminer les biais lors de l'apprentissage./IDIAP

En collaboration avec l’entreprise Sicpa et l’Université de Zurich, l’Institut IDIAP de Martigny va créer un répertoire de visages de synthèse afin d’éviter les biais racistes, sexistes ou d’âge des logiciels de reconnaissance faciale. Ces algorithmes s’appuient, en effet, sur des bases de données de photos de visages collectées sur internet qui ne représentent pas la réalité de la diversité des populations. Cela aboutit, dans des cas extrêmes, à des erreurs policières. Financé par la Fondation Hasler, le projet SAFER va créer des visages de personnes qui n’existent pas avec des logiciels de deepfake dans le but de développer des outils de reconnaissance faciale éthique.

Pourquoi c’est difficile. Il y a trois ans l’artiste genevoise Marta Revuelta réalisait l’installation «Profilage facial» pour dénoncer les a priori sexistes ou racistes des logiciels d’intelligence artificielle utilisés dans la reconnaissance faciale. Pour l’Institut IDIAP de Martigny, ces biais tiennent largement aux bases de données de photos sourcées sur internet qui alimentent ces algorithmes. Les chercheurs ont déjà développé une première base de données de 10 000 visages de synthèse. Insuffisante pour entrainer des algorithmes d’apprentissage machine elle a suffi à valider démarche qui s’annonce cependant longue et difficile.

Cet article est réservé aux abonnés.