| | News

Le principal défi des IA médicales reste la collaboration entre informaticiens et cliniciens

Extrait d'un logiciel d'imagerie médicale pour examiner les radiographies. | Owen Beard/unsplash

Heidi.news est partenaire des Applied Machine Learning Days (AMLD) 2021.

Où en sont les applications cliniques de l’intelligence artificielle? Tel était le thème de la session du 18 mars des Applied Machine Learning Days 2021, cycle de conférences organisé en ligne par l’EPFL. A cette occasion, plusieurs spécialistes renommés du machine learning ont évoqué les difficultés que pose un tel mariage entre l’informatique et la clinique… mais aussi ses succès les plus prometteurs.

Pourquoi on en parle. On nous le promet depuis plusieurs années: l’intelligence artificielle pourrait révolutionner la pratique de la médecine. Pourtant, même en 2021, on n’y est pas. Pourquoi? La clé, comme souvent, n’est pas seulement dans la technique pure, mais aussi dans le facteur humain: il s’agit de faire coexister les deux disciplines. Et de faire travailler les experts des deux domaines, main dans la main, dès la conception des algorithmes.

De l’IA aux intelligences artificielles. On parle encore trop souvent d’intelligence artificielle sous le prisme du «solutionnisme technologique». A savoir, comme des technologies révolutionnaires qui suffiraient à résoudre magiquement tous nos problèmes. Il faut dire que nos imaginaires robotiques empreints de science-fiction nous ont d’abord fait craindre que les machines ne nous remplacent, voire ne prennent un jour le pouvoir…

Pourtant, ces «intelligences» numériques ne naissent pas toutes faites, magiquement prêtes à l’emploi. C’est grâce au travail d’informaticiens spécialisés qu’elles apprennent à réaliser leurs tâches. Et surtout, il n’existe pas une, mais des intelligences artificielles. Voire un véritable bestiaire, comme nous l’évoquions fin 2019! Par exemple:

  • Le machine learning ou apprentissage automatique. On pourrait dire, de façon imagée et en grossissant le trait, qu’il s’agit de construire une sorte de régression linéaire à partir d’un nuage de points

  • Le reinforcement learning ou apprentissage par renforcement, où l’algorithme apprend par l’exemple comment déterminer la solution optimale à un problème donné.

  • Sans oublier le deep learning, lorsque les algorithmes d’apprentissage exploitent des réseaux de neurones artificiels (il ne faut pas les voir comme des imitations électroniques de neurones, mais comme des simulations numériques). La révolution? L’algorithme se programme alors seul, en fonction des données qu’on lui fournit. C’est ce qu’on appelle l’apprentissage profond: des milliers (voire millions) d’exemples permettront au système d’apprendre à généraliser.

Les IA, en médecine, ne peuvent être entraînées que par l’exemple du praticien humain. Elles ne sauraient donc être développées uniquement par des informaticiens: il faut impliquer dès le début de leur conception des cliniciens, ont rappelé les experts qui intervenaient à l’EPFL.

Quelques exemples d’application. Dans les faits, l’intérêt est donc surtout de concevoir des outils d’aide à la décision destinés aux cliniciens. Avec des enjeux très variés! Aide au diagnostic, médecine personnalisée, suivi à long terme des patients… Le répertoire des applications possibles est large.

Daniel Rueckert, professeur à l’Imperial College de Londres, illustrait:

«En imagerie, nous travaillons par exemple à des algorithmes qui permettraient d’assister des échographes inexpérimentés à déterminer dans quel plan se situe la tête d’un fœtus. L’intérêt serait aussi d’obtenir des observations plus consistantes dans le temps, qui dépendent moins de l’opérateur. Cette démarche peut aussi être étendue, en radiologie, pour l’identification des différents organes du corps.»

Julia Vogt, professeur à l’ETH Zurich, rappelait aussi le potentiel de l’IA en médecine personnalisée. Par exemple dans les services de néonatologie, où environ 60% des nouveaux-nés souffriront de jaunisse… des cas qui peuvent devenir graves dans 10% des cas, en l’absence de photothérapie, et qui se déclenche parfois quelques jours après la naissance, lorsque le nouveau-né n’est plus à l’hôpital. Elle raconte comment son équipe a conçu un modèle qui permet de prédire la maladie 48h à l’avance, et de pouvoir réagir en conséquences.

«La pédiatrie est un cas particulier: la dynamique est très rapide, et surtout, on dispose de moins de données médicales, car on ne peut pas multiplier les tests médicaux, par exemple les prises de sang, compte-tenu du faible volume sanguin d’un nouveau-né. On ne peut pas simplement transférer les connaissances que l’on a pour les adultes.»

D’autres voies sont encore possibles, par exemple améliorer l’adhésion des patients à un traitement, notamment dans le domaine de la santé mentale, expliquait Danielle Belgrave, directrice principale de recherche chez Microsoft Research.

De là à parler de success story? C’est là que cela coince encore… pour l’instant. Julia Vogt commente:

«On a vu beaucoup de réussites en termes de recherches et de publications scientifiques, mais on a vu beaucoup moins de projets être déployés en clinique.»

Les données personnelles. Elles posent évidemment un problème particulier, tant les données médicales, rattachées à une identité, sont des informations privées et sensibles. Un enjeu récurrent est donc celui d’une anonymisation suffisamment forte des données utilisées pour l’entraînement de ces algorithmes. Bernice Elger, professeur de bioéthique à l’Université de Bâle:

«Il y a quatre grandes valeurs en bioéthique:

  • le respect de l’autonomie du patient, qui passe par l’explicabilité des résultats et le consentement éclairé,

  • le bénéfice du patient et le principe de non-malveillance, ce qui passe par le respect de la confidentialité et la réduction des biais susceptibles de mener à des résultats erronés,

  • et enfin la justice, qui implique par exemple que les algorithmes ne causent pas de discrimination, ainsi que la question des conflits d’intérêts, autrement dit celle de la transparence et de la responsabilité.»

En cas d’erreur, est-ce le développeur de l’IA ou le médecin qui est en tort?

«On pourrait envisager la question comme celle d’une assurance automobile. Ce qui est important, c’est que les médecins comprennent comment fonctionnent ces algorithmes et soient en mesure d’expliquer les enjeux importants aux ingénieurs en retour, afin d’assurer la meilleure protection possible aux patients.»

Danielle Belgrave soulignait aussi que la santé peut être vue comme un bien commun. Elle rappelait à cet égard la déclaration de Dagstuhl, signée en 2019 par plusieurs chercheurs — elle comprise — en intelligence artificielle, qui s’engagent à respecter un certain nombre de principes éthiques.

L’interdisciplinarité. Ces spécialistes s’accordent sur un point: l’opposition, toute médiatique, entre le médecin et la machine n’a aucun sens. Steve Jiang, professeur à l’Université de Texas Southwestern, martèle: «Remplacer le praticien par une machine, c’est impossible. D’autant plus que la médecine, dans bien des cas, reste un art.»

Daniel Rueckert ajoutait:

«En 2017, Geoffrey Hinton, l’un des pères du deep learning, affirmait qu’on pourrait arrêter de former des radiologues. Mais je penche plutôt pour ce que disait le Pr Curstis Langlotz, de Stanford, à savoir que l’IA ne remplacerait pas les radiologues, mais que les radiologues qui utilisent des IA allaient effectivement remplacer les radiologues qui n’en utilisent pas.»

Julia Vogt constatait également l’enjeu d’une collaboration nourrie et précoce entre les deux champs: «Quand les chercheurs en machine learning travaillent seuls, ils risquent de concevoir des méthodes peu applicables aux problèmes cliniques.» Une solution, expliquait Finale Foshi-Velez, professeure à Harvard, est d’impliquer les cliniciens au plus tôt. «L’idée est d’adopter une approche holistique dès le départ», explique-t-elle.

«Un jour, un de nos modèles fournissait des résultats étranges. Le clinicien a immédiatement été en mesure de mettre le doigt sur le problème: une simple erreur dans le relevé de la tension d’un patient.»

Steve Jiang abondait en ce sens:

«La médecine et le machine learning sont deux langages différents, qui peuvent être difficiles à comprendre pour qui n’est pas formé. Or, pour réussir, il faut des collaborateurs qui parlent ces deux langues, des échanges réguliers entre les deux mondes. Il ne faut pas non plus oublier les enjeux d’explicabilité des résultats des algorithmes, et d’interprétation des résultats.»

D’autant plus que mêmes entre cliniciens, les diagnostics peuvent fluctuer. Steve Jiang est revenu sur une étude de cas réalisée avec des confrères, qui montre que l’on peut entraîner un algorithme à reproduire le «style» diagnostic de différents médecins pour des patients après une opération d’un cancer de la prostate. De quoi offrir un second regard…

Mais assurément pas de quoi remplacer nos humains en blouse blanche. Conviés à participer aux côtés des informaticiens à la fabrique de ces nouveaux outils, ce sont eux qui décideront de ceux qui répondront — ou non — à leurs besoins.

Heidi.news sur Telegram, chaque fin de journée, recevez les articles les plus importants.
Inscrivez-vous!

Lire aussi