| | radar

Mal employée, l'intelligence artificielle risque d'accentuer les inégalités des systèmes de santé

Image d'illustration | Peyri Herrera/Flickr/Creative Commons

Des ingénieurs aux médecins, nul ne tarit d’éloges sur l’intelligence artificielle et ses multiples promesses: diagnostiquer plus tôt le cancer, s’assurer que les patients reçoivent les traitements les plus pertinents... Le site de Nature en relate un exemple malheureux. Des chercheurs ont ainsi démontré le manque d’équité d’un algorithme chargé de calculer des ‘scores de risque’ médical pour placer des patients à risque dans des programmes de soin spécifique. Les personnes noires étaient moins souvent sélectionnées que les personnes blanches, en raison de biais inhérents dans la conception de l’algorithme!

Pourquoi c’est préoccupant. Les algorithmes de machine learning ont eux aussi des biais. Ils reproduisent soit ceux de leurs créateurs soit ceux des données avec lesquels on les a alimentés. Ils fonctionnent en construisant des corrélations. Si, par exemple, un certain type de profil socio-culturel est sur-représenté dans les données d’apprentissage, alors l’algorithme fonctionnera moins bien pour les autres communautés. A l’heure où l’on entraîne aussi ce type de programmes au diagnostic du cancer à partir de patients d’une autre région du monde, le risque est aussi médical.

link

Lire l'article publié par Nature

newsletter_point-du-jour

Recevez_ chaque matin un résumé de l'actualité envoyé d'une ville différente du monde.

Lire aussi