Réservé aux abonnés

«Lire» dans les pensées grâce à des images IRM, c’est possible

ALEXANDER HUTH, REGENTS OF THE UNIVERSITY OF CALIFORNIA

Lire dans les pensées n'est plus seulement de la science-fiction. Des neuroscientifiques ont réussi à reconstruire le langage à partir d'images IRM du cerveau... mais aussi d'une IA. Explications.

Le dernier rempart qui protège l’intimité a-t-il été franchi? Des neuroscientifiques viennent de publier dans la revue Nature Neuroscience une démonstration troublante: il est possible de reconstituer les pensées d’une personne à partir d’enregistrements de son activité cérébrale obtenus par IRM. Une première pour un dispositif non invasif, c’est-à-dire ne nécessitant pas d’intervention chirurgicale. L’enjeu, à terme: permettre le dialogue avec des patients atteints de maladies entraînant des difficultés, voire l'impossibilité, de communiquer (syndrome d’enfermement, maladie de Charcot…).

Pourquoi c’est une prouesse. Il y a encore quelques années à peine, personne n’aurait imaginé utiliser l’IRM fonctionnelle, pas toujours réputée pour sa précision, pour parvenir à un tel résultat. Pour améliorer leur système, les scientifiques ont eu une idée audacieuse: se faire aider par GPT-1, un ancêtre du célèbre modèle de langage développé par OpenAI pour ChatGPT. Vous avez dit «cyberpunk»?

Lire aussi:«Il faut des "neuro-droits" pour réguler la collecte des pensées»

Dans leur prototype présenté dans Nature Neuroscience, ces chercheurs de l’Université du Texas à Austin (Etats-Unis) décrivent un modèle d’encodeur-décodeur permettant de transposer le langage en images cérébrales – et réciproquement. «L’encodeur permet de prédire la réponse du cerveau lorsqu’il entend certains mots, puis nous utilisons le même modèle pour décoder les mots qui ont pu mener à l’image observée», explique Alexander Huth, l’un des auteurs de l’étude.

Depuis 2016, celui-ci travaille sur la cartographie sémantique du langage dans le cerveau. Cet encodeur-décodeur en constitue en quelque sorte la clé. Spécifique à chacun, il permet de «traduire» les images de l’activité cérébrale en mots écrits – et réciproquement.

Des podcasts pour apprendre à lire le cerveau. Trois volontaires se sont ici prêtés à l’exercice et ont écouté pas moins de seize heures d'enregistrements audio, afin d’entraîner le système à faire le lien entre l’activité cérébrale et les mots entendus. Parmi les podcasts, l’émission de radio The Moth Radio Hour, plusieurs TED Talks, ou encore le podcast du New York Times Modern Love. «Nous voulions des histoires agréables à écouter», explique Alexander Huth.

A l’issue de cette phase d’entraînement, les volontaires ont écouté de nouvelles histoires pour tester la capacité de l’encodeur-décodeur à bien lire leur imagerie cérébrale. Et les résultats surprennent: malgré quelques erreurs, le sens des phrases est assez bien préservé.

Plus troublant encore, lorsque les participants sont invités à décrire (dans leur tête) une vidéo muette ou une image, le système produit, là encore, des résultats probants — sans que l’encodeur ait été entraîné sur ce type de contenu!

Pour Alexander Huth, c’est là toute l'originalité du système développé: il ne décode pas strictement le langage, mais le sens que celui-ci a imprimé dans le cerveau.

«La plupart des systèmes actuels s’intéressent aux dernières étapes qui précèdent la parole, c’est-à-dire les mouvements de la bouche, du pharynx…  Notre approche est différente, car elle ne se place pas à un niveau moteur, mais à un niveau sémantique», détaille-t-il.

GPT à la rescousse. Pour trier le signal du bruit, les chercheurs ont pu compter sur une aide inattendue: le modèle de langage GPT-1, première mouture parue en 2018 du fameux modèle de langage développé par OpenAI…

«GPT permet de faciliter le décodage du mot suivant, grâce à un calcul qui classe les différentes possibilités par ordre de probabilité», décrit Alexander Huth, qui ajoute que, même en cas d’erreur, le système parvient à retrouver le fil en quelques secondes. «Il y a cinq ans, les modèles de langage comme GPT n’avaient pas encore connu l’explosion qu’ils connaissent aujourd’hui», poursuit-il.

Pour le chercheur, cet élément, ainsi que la quantité de données IRM obtenues pour chaque cobaye, ont vraisemblablement participé au succès de l’expérience.

Cet article est réservé aux abonnés.

Pour lire la suite de cet article et des milliers d'autres, abonnez-vous à partir de CHF 16.- par mois.

Le journalisme de qualité nécessite du temps, de l'investigation et des moyens. Heidi.news est sans publicité. L'avenir de votre média dépend de vous.

Je profite des 30 premiers jours gratuits

Les bonnes raisons de s’abonner à Heidi.news :

  • Un mois d’essai, sans engagement sur votre premier abonnement
  • La newsletter le Point du jour édition abonnés
  • Les archives en illimité
  • Des échanges avec nos journalistes