Le moratoire sur les IA, une pause salutaire ou un piège de la tech?

Unsplash / Rock'n Roll Monkey

La question d'un moratoire sur l'IA, soulevée par la lettre de l'institut Future of Life, fait débat. Certains défendent l'utilité de la démarche, quand d'autres y voient une tentative de détourner l'attention des vrais enjeux.

«Un moratoire sur l’intelligence artificielle? Je n’y crois pas du tout», lance Jean-Gabriel Ganascia, spécialiste de l’IA et président du comité d’éthique du Centre national pour la recherche scientifique (CNRS) en France. «Ce serait quoi l’objectif? D’attendre d’en savoir plus? Et comment ferait-on, si on a interdit de développer ces technologies?»

Le scientifique ne croit pas du tout à la possibilité de mettre en pause la course à l’intelligence artificielle. D’autres experts le rejoignent, estimant qu’un tel scénario pourrait avoir des conséquences négatives, pour un résultat difficile à prédire.

Pourquoi on en parle. La question d’un moratoire sur l’intelligence artificielle se pose depuis la diffusion d’une lettre ouverte, signée par plus d’un millier d’experts parmi lesquels Elon Musk, appelant à mettre en pause le développement de modèles plus puissants que GPT-4, la dernière itération de ChatGPT publié par OpenAI.

«Les motifs invoqués par ce document relèvent pour l’heure de la science-fiction, observe Jean-Gabriel Ganascia. Dire que l’IA fait courir un péril existentiel à l’humanité ne repose sur aucun fait tangible.»

Un avis partagé par Tim O’Hear, président de la fondation ImpactIA: «Ce discours occulte les vrais enjeux autour de l’intelligence artificielle qui vont avoir de l’importance ces cinq à dix prochaines années.»

Lire aussi: Moratoire sur les IA: arrêtons plutôt le techno-bullshit (pour toujours)

Pour sa part, le scientifique en chef de l’IA chez Meta (ex-Facebook), Yann LeCun, estime sur Twitter qu’un moratoire reviendrait à favoriser des développements secrets, ce qui serait précisément le contraire de l’effet recherché.

Une pause pour mieux redémarrer? De son côté, la fondation Gesda (Geneva Science and Diplomacy Anticipator) a une lecture différente. «Nous travaillons à la création d’un mécanisme d’autorégulation sur les questions scientifiques en général de l’intelligence artificielle en particulier», précise le porte-parole de l’organisation, Jean-Marc Crevoisier.

Objectif de ce mécanisme: engager la responsabilité des chercheurs afin qu’ils travaillent «pour le bénéfice de l’humanité», en pratiquant l’autorégulation dans leurs recherches.

«Ces questionnements peuvent légitimement aboutir à la demande d’un moratoire, le temps de régler ces procédures de sécurité, étant entendu que la recherche dans le domaine continuera une fois l’objectif du moratoire réalisé.»

Selon Gesda, la lettre ouverte s’inscrit dans une démarche similaire «puisque le moratoire est demandé ici pour donner le temps d’écrire les manuels des GPT (modèles de langage derrière ChatGPT d’OpenAI, ndlr.). Ce n’est donc pas une demande d’interdiction, mais la volonté de procéder à un meilleur redémarrage dans quelque temps.»

Reste la question de la faisabilité d’un tel moratoire. Jean-Gabriel Ganascia voit mal comment une telle démarche pourrait avoir une chance sur le plan international. «Vous croyez vraiment que la Chine ou les Etats-Unis vont signer un texte qui leur interdit de développer ces technologies, même provisoirement?»

Des barrières à l’entrée pour les petits. Partons du principe qu’un tel moratoire a peu de chance d’aboutir. Ne risque-t-on pas dans ce cas d’assister à une hyper régulation, destinée à répondre aux craintes d’une partie de la population? «Je pense que c’est exactement ce que souhaitent les acteurs qui dominent actuellement ce marché, analyse Tim O’Hear (ImpactIA). Leur capacité à influencer les lois ne fait pas mystère. Ils pourraient ainsi mettre des barrières à l’entrée pour les plus petits acteurs.»

Pour Tim O’Hear, le principal enjeu, c’est de faire en sorte que la course à l’IA ne pousse pas les acteurs dominants à cesser de partager leurs travaux avec la communauté des chercheurs. Le président d’ImpactIA s’inquiète pourtant de la tournure que prennent les événements:

«Malheureusement, on tend vers l’opacité. Le papier d’OpenAI qui a accompagné la publication de GPT-4 ne transmet aucune information valable sur l’architecture du modèle. Et Meta, avec la publication de son modèle de langage LLaMa, a limité aussi le partage de certains aspects importants.»

Pourtant, certaines voix estiment que la diffusion en open-source de puissants modèles d’IA pourrait permettre à n’importe qui d’en développer des versions malveillantes. Tim O’Hear nuance:

«Aujourd’hui, une carte graphique de gamer permet effectivement de faire tourner des modèles comme GPT-4. C’est un changement majeur dans l’accessibilité de ces technologies, mais pour entraîner son propre modèle depuis zéro, il faut des centaines de milliers d’heures d’apprentissage, ce qui nécessite une puissance de calcul impressionnante. Les grandes entreprises ont généralement recours à des fermes contenant des milliers d’ordinateurs.»

Difficile donc, même pour un groupe open source, d’assumer les coûts que représente une telle démarche. «Actuellement, le vrai risque, c’est l’opacité. En essayant de pousser d’autres questions dans le débat public, les géants de la tech cherchent surtout à renforcer leur hégémonie. Le partage des connaissances bénéficie à tous», estime Tim O’Hear.

Selon lui, l’écosystème de l’IA est à la croisée des chemins:

«Soit l’IA va être développée dans des environnements fermés, comme le sont les smartphones, avec la possibilité pour les acteurs qui dominent ce marché de décider qui peut proposer des applications, soit elle va suivre le chemin d’internet, c’est-à-dire une véritable ouverture, qui peut certes conduire à certaines dérives, mais qui reste accessible à tous, ce qui favorise l’émergence de solutions qui bénéficient à la société.»