Réservé aux abonnés

«ChatGPT n'aurait jamais dû être déployé pour le grand public»

Lê Nguyên Hoang est chercheur en sécurité du machine learning à l'EPFL et possède sa chaîne Youtube de vulgarisation Science4All. | DR

Et si le succès des applications d'intelligence artificielle comme Lensa ou ChatGPT cachait des enjeux plus importants? Le chercheur en sécurité du machine learning Lê Nguyên Hoang en est convaincu. Pour lui, le vrai danger, ce sont les algorithmes de recommandation.

Le succès retentissant des applications qui s’appuient sur des algorithmes d’apprentissage machine — improprement nommés «intelligence artificielle» — fait le bonheur des médias et des curieux. On citera entre autres Lensa, une application qui permet de créer des photos de soi générées par des algorithmes en s’appuyant sur divers clichés, ou encore ChatGPT, un générateur de texte «intelligent» qui a bluffé mon confrère Fabrice Delaye — il le place au même niveau que l’invention du Web et de l’iPhone.

Lire aussi: Nous avons demandé à ChatGPT d'écrire des articles, voilà ce qui s'est passé

Lê Nguyên Hoang, CEO de l’entreprise de cybersécurité Calicarpa et actif sur Youtube avec sa chaîne de vulgarisation Science4all suivie par plus de 200'000 personnes, se méfie de cette soudaine passion pour de telles applications. Il estime qu’elles cachent des enjeux beaucoup plus importants dans ce domaine, notamment en termes de sécurité et d’éthique. Il s’en explique.

Heidi.news – Qu’est-ce que vous inspirent les récents succès de Lensa et ChatGPT?

Lê Nguyên Hoang — C’est très problématique. Les utilisateurs de Lensa transmettent des données personnelles à une entreprise dont on ne sait pas grand-chose, avec le risque que ces informations puissent servir ultérieurement à des fins de surveillance, ou être utilisées pour créer de faux comptes sur les réseaux sociaux. De plus, les applications qui modifient les images sur la base d’algorithmes d’apprentissage machine ont tendance à sexualiser les femmes, et peuvent aussi être utilisées dans du harcèlement.

A plus grande échelle, des succès comme ceux de Lensa ou ChatGPT envoient un mauvais signal aux entreprises et aux développeurs, en les incitant à développer des outils qui sont peu sécurisés puisque l’objectif est de les commercialiser le plus rapidement possible. Cela revient à déployer des technologies informatiques dont le code n’a pas suffisamment été éprouvé. Et forcément, quand de telles applications attirent des millions de personnes en quelques jours, ça pousse les investisseurs à mettre de l’argent dans ce type de projet. C’est un problème tant pour les chercheurs que pour les utilisateurs.

Pourquoi est-ce un problème? Cet argent pourrait servir à développer des algorithmes de plus en plus robustes…

Les entreprises qui développent ces technologies ne partagent pas, ou très peu, les données qui servent à entraîner leurs modèles. OpenAI, qui est derrière ChatGPT, en est un bon exemple. Malgré ce que pourrait suggérer son nom, elle ne donne pas accès aux données qui ont permis de corriger les biais de son algorithme de langage. Si les chercheurs ne peuvent pas consulter ces informations, personne ne peut réellement garantir la sécurité de l’outil. De plus, ça freine la recherche, parce que d’éventuelles avancées dans l’apprentissage machine ne profitent pas à d’autres projets qui ont aussi besoin de renforcer leur sécurité et de corriger leurs propres biais.

Réservé aux abonnés

Cet article est réservé aux abonnés.

Déjà abonné(e) ? Se connecter