Réservé aux abonnés

Les dangers de l'automatisation appliquée aux aides sociales

Image d'illustration | JoLynne Martinez/Creative Commons/Flickr

Heidi.news était partenaire des Applied Machine Learning Days (AMLD) et a déplacé jusqu'au mercredi 29 janvier sa rédaction à l'EPFL, sur le site de l'événement.

Les outils du machine learning souvent utilisés en intelligence artificielle sont-ils vraiment neutres lorsqu’on les applique à l’implémentation des politiques sociales, par exemple pour automatiser l’identification de la fraude sociale? Considérer ces algorithmes comme des boîtes noires peut conduire à aggraver certaines inégalités sociales, ce que montrent plusieurs exemples de déploiement de ces technologies en Europe. Panorama.

Pourquoi c’est émergent. Pays-Bas, Royaume-Uni, Australie… Nombreux sont les pays à avoir expérimenté ce type de système. Avec quelle efficacité, et quels effets sur les inégalités? La question, qui lève de nombreux enjeux de transparence, concerne aussi la Suisse: le 29 janvier 2020, 24 heures révélait que le canton de Vaud allait placer des émetteurs GPS sur les voitures des personnes suspectées de fraude aux services sociaux.

Cet article est réservé aux abonnés.

Pour lire la suite de cet article et des milliers d'autres, abonnez-vous à partir de CHF 16.- par mois.

Le journalisme de qualité nécessite du temps, de l'investigation et des moyens. Heidi.news est sans publicité. L'avenir de votre média dépend de vous.

Je profite des 30 premiers jours gratuits

Les bonnes raisons de s’abonner à Heidi.news :

  • Un mois d’essai, sans engagement sur votre premier abonnement
  • La newsletter le Point du jour édition abonnés
  • Les archives en illimité
  • Des échanges avec nos journalistes