| | news

Les dangers de l'automatisation appliquée aux aides sociales

Image d'illustration | JoLynne Martinez/Creative Commons/Flickr

Heidi.news était partenaire des Applied Machine Learning Days (AMLD) et a déplacé jusqu'au mercredi 29 janvier sa rédaction à l'EPFL, sur le site de l'événement.

Les outils du machine learning souvent utilisés en intelligence artificielle sont-ils vraiment neutres lorsqu’on les applique à l’implémentation des politiques sociales, par exemple pour automatiser l’identification de la fraude sociale? Considérer ces algorithmes comme des boîtes noires peut conduire à aggraver certaines inégalités sociales, ce que montrent plusieurs exemples de déploiement de ces technologies en Europe. Panorama.

Cet article est réservé aux abonnés.

Accédez à tous nos contenus, soutenez une rédaction indépendante.

S'abonner

Recevez chaque jour des actualités thématiques en vous inscrivant à nos newsletters gratuites.

La newsletter qui aborde les enjeux de la sortie de crise selon une thématique différente

Lire aussi