| | radar

Pourquoi il faut relativiser les prédictions de la science des données

Image d'illsutration | Marcin Ignac/Creative Commons via Flicrk

Faut-il avaler sans sourciller toutes les prédictions de la science des données, ce nouvel oracle du numérique? Non, selon Andrea Jones-Rooy, professeure de data science à l’Université de New York, dans une tribune publiée par Quartz. Elle rappelle que les données ne sont qu’un énième outil façonné par l’homme, et qu’elles n’existent que parce qu’on a bien voulu les collecter, à l’exclusion de tout le reste. Autrement dit, les données, à elles seules, ne veulent rien dire, en dehors du cadre où il a été prévu de les exploiter.

Pourquoi c’est important. De plus en plus de voix s’élèvent contre les biais des algorithmes, qui résultent de choix parfois inconscients réalisés pendant leur développement. La chercheuse rappelle ainsi les quatre principales typologies d’erreurs pouvant être introduites dans les données: l’erreur aléatoire, l’erreur systématique, l’erreur dans le choix de ce qu’on mesure, et enfin l’erreur d’exclusion, qui provient de populations délibérément ignorées dans le choix des données.

link

Lire l'article sur le site de Quartz (EN)

newsletter_point-du-jour

Recevez_ chaque matin un résumé de l'actualité envoyé d'une ville différente du monde.

Lire aussi