Polémique autour d’une intelligence artificielle «consciente» chez Google
Le Washington Post rapporte l’histoire troublante de Blake Lemoine, un ingénieur et éthicien employé par le groupe d’Intelligence artificielle responsable de Google, mis sur la touche par l’entreprise après qu’il a après qu’il a révélé qu’un programme de robots de conversation baptisé LaMDA a atteint un niveau de «conscience». Depuis, la polémique fait rage. D’un côté certains spécialistes considèrent que les progrès de ces programmes sont tels que leurs réponses dans un dialogue passent le test de Turing, autrement dit qu’ils ont développé une forme d’intelligence autonome. D’autres rappellent que ces réseaux neuronaux reposent seulement sur la reconnaissance de caractéristiques dans un océan de données et basent en fait leurs réponses sur celles déjà exprimées par des humains.
Pourquoi c’est passionnant. Le concept d’intelligence artificielle «consciente» est aussi vieux que les ordinateurs. L’informaticien Alan Turing a imaginé en 1950 un test pour définir si une machine peut penser. Mais ses principes sont contestés. Reste que la polémique autour des affirmations de Blake Lemoine soulève des questions éthiques importantes. Les modèles de langage artificiel atteignent effectivement des niveaux qui peuvent les faire passer pour d’authentiques personnes. Et l’utilisation malveillante de cette anthropomorphisation, par exemple pour alimenter en propagande des commentaires d’articles de journaux ou en fake news des faux compte Twitter, appelle à la vigilance.