Les dangers de l'automatisation appliquée aux aides sociales
Heidi.news était partenaire des Applied Machine Learning Days (AMLD) et a déplacé jusqu'au mercredi 29 janvier sa rédaction à l'EPFL, sur le site de l'événement.
Les outils du machine learning souvent utilisés en intelligence artificielle sont-ils vraiment neutres lorsqu’on les applique à l’implémentation des politiques sociales, par exemple pour automatiser l’identification de la fraude sociale? Considérer ces algorithmes comme des boîtes noires peut conduire à aggraver certaines inégalités sociales, ce que montrent plusieurs exemples de déploiement de ces technologies en Europe. Panorama.
Pourquoi c’est émergent. Pays-Bas, Royaume-Uni, Australie… Nombreux sont les pays à avoir expérimenté ce type de système. Avec quelle efficacité, et quels effets sur les inégalités? La question, qui lève de nombreux enjeux de transparence, concerne aussi la Suisse: le 29 janvier 2020, 24 heures révélait que le canton de Vaud allait placer des émetteurs GPS sur les voitures des personnes suspectées de fraude aux services sociaux.