Réservé aux abonnés

Aurélie Jean: «La gouvernance algorithmique doit être rendue obligatoire»

Aurélie Jean | Geraldine Aresteanu

Comment réguler l'intelligence artificielle? La scientifique et autrice Aurélie Jean plaide pour une gouvernance algorithmique, afin d'imposer aux acteurs des pratiques moins risquées sans freiner l'innovation.

Rarement l’intelligence artificielle a autant fait parler d’elle. L’engouement suscité par le déploiement de ChatGPT en novembre 2022, n’y est pas pour rien. Chacun sent qu’on est à l’aube d’un bouleversement profond et beaucoup s’en inquiètent: comment éviter de verser dans la dystopie orwellienne?

Aurélie Jean, spécialiste des algorithmes et entrepreneure à cheval entre la France et les Etats-Unis, autrice du livre Les algorithmes font-ils la loi? (éd. de l’Observatoire, 2021), s’intéresse de près à la façon dont ces technologies peuvent être encadrées. Nous en avons discuté avec elle.

Ca s’agite chez le législateur
Pour une fois, Bruxelles a tiré le premier. La Commission européenne a proposé en 2021 un ambitieux projet de loi destiné à réglementer l’usage de l’IA. Cet «AI Act» entend introduire une responsabilité juridique de tous les acteurs, fondée sur la notion de risque. Il est en cours d’examen au Parlement européen et semble parti pour inspirer les autres pays désireux de légiférer.

Heidi.news — Que pensez-vous de la démarche impulsée par l’Union européenne pour encadrer l’usage de l’IA?

Aurélie Jean — A l’instar du Règlement général sur la protection des données (RGPD), l’Europe se positionne à raison sur le sujet de la régulation qui concerne les technologies algorithmiques. Le RGPD a été une belle révolution qui a d’ailleurs influencé le texte californien reconnu dans de nombreux Etats américains. Cela étant dit, il est plus difficile pour l’Europe de construire l’AI Act que le RGPD, pour deux raisons principales.

Lire aussi: «ChatGPT n’aurait jamais dû être déployé pour le grand public»

Tout d’abord, l’Europe – et en particulier la France – a un historique dans l’élaboration des lois qui concernent les informations numériques puis transportées par le cloud, comme par la loi Informatique et Liberté de 1978 qui a été revue dans les années 1990 avec l’apparition d’internet.

Ensuite, les données sont beaucoup plus faciles à comprendre, que ce soit dans leur collecte, leur stockage que dans ce qu’elles représentent, que les algorithmes d’intelligence artificielle. Les algorithmes sont encore bien plus intangibles et difficiles à décrire. Comme je l’écris dans mon livre, il faut construire des lois qui protègent les droits fondamentaux tout en encourageant l’innovation. Ce point est critique dans les articles de loi à venir.

Réservé aux abonnés

Cet article est réservé aux abonnés.

Déjà abonné(e) ? Se connecter