| | news

Les dangers de l'automatisation appliquée aux aides sociales

Image d'illustration | JoLynne Martinez/Creative Commons/Flickr

Heidi.news était partenaire des Applied Machine Learning Days (AMLD) et a déplacé jusqu'au mercredi 29 janvier sa rédaction à l'EPFL, sur le site de l'événement.

Les outils du machine learning souvent utilisés en intelligence artificielle sont-ils vraiment neutres lorsqu’on les applique à l’implémentation des politiques sociales, par exemple pour automatiser l’identification de la fraude sociale? Considérer ces algorithmes comme des boîtes noires peut conduire à aggraver certaines inégalités sociales, ce que montrent plusieurs exemples de déploiement de ces technologies en Europe. Panorama.

Pourquoi c’est émergent. Pays-Bas, Royaume-Uni, Australie… Nombreux sont les pays à avoir expérimenté ce type de système. Avec quelle efficacité, et quels effets sur les inégalités? La question, qui lève de nombreux enjeux de transparence, concerne aussi la Suisse: le 29 janvier 2020, 24 heures révélait que le canton de Vaud allait placer des émetteurs GPS sur les voitures des personnes suspectées de fraude aux services sociaux.

Cet article est réservé aux abonnés.

Accédez à tous nos contenus, soutenez une rédaction indépendante.

S'abonner

Recevez chaque jour des actualités thématiques en vous inscrivant à nos newsletters gratuites.

Sortir de la crise, la newsletter qui aborde les enjeux de la sortie de crise selon une thématique différente

Lire aussi