| | news

Une étude chiffre le lourd tribut carbone de intelligence artificielle

Dans le film éponyme, Wall-E arpente une décharge (image d'illustration) | shizo/Flickr/Creative Commons

Prendre l’avion pollue, la faute au kérosène. Regarder Netflix en streaming pollue, la faute aux datacenters. Et parler à Siri ou à Alexa? Oui, l’intelligence artificielle aussi pollue. Et dans des proportions insoupçonnées, soulève une étude qui sera présentée à l’occasion d’un congrès à Florence en juillet.

Pourquoi l’IA pollue de plus en plus? La faute en revient à la puissance électrique requise pour faire fonctionner les algorithmes de machine learning: on ne parle pas ici d’ordinateur personnel, mais de machines de guerre souvent munies de plusieurs cartes graphiques afin de pouvoir mener davantage de calculs en parallèle.

Selon ces travaux, les émissions de CO2 consécutives à l’entraînement d’un modèle complexe, de ceux utilisés pour le traitement du langage naturel (par exemple pour la reconnaissance vocale ou la traduction), équivaut à celles qu’émettraient jusqu’à 5 voitures (carburant compris) pendant toute leur durée de vie, de la fabrique jusqu’à la casse!

Un chiffre à relativiser. Ce chiffre donne le tournis; mais un modèle d’intelligence artificielle n’apprend en général qu’une seule fois, ou tout du moins, un nombre fini de fois. Le modèle ne relance pas tout un cycle d’apprentissage à chaque fois qu’un utilisateur l’interroge, et heureusement!

La méthode de calcul.

  • Ces chercheurs ont d’abord évalué la consommation électrique du matériel informatique utilisé pour entraîner les algorithmes

  • Puis en fonction des sources d’énergies renouvelables ou non déclarées par les principaux datacenters mondiaux utilisés pour l’entraînement des modèles, les émissions de CO2 moyennes en ont été déduites.

À quoi ça sert? Les chercheurs formulent plusieurs recommandations:

  • Les chercheurs en intelligence artificielle devraient divulguer, outre leurs résultats théoriques, la durée de calcul qu’a nécessité l’entraînement de leurs modèles. L’enjeu est que les sociétés puissent ensuite réaliser une analyse coût environnemental-bénéfice afin de choisir un modèle le plus vert possible.

  • Les universités devraient se doter de leurs propres infrastructures techniques permettant l’apprentissage des algorithmes, afin que les chercheurs ne soient pas tributaires des services cloud - payants - proposés par Amazon, Google ou Microsoft.

  • Enfin, tout ne se rapporte pas au matériel: les chercheurs du domaine doivent s’intéresser à l’impact énergétique de leurs algorithmes, et s’assurer qu’ils soient davantage efficients.

link

Lire le pré-print disponible sur arXiv (EN)

Sortir de la crise, la newsletter qui aborde les enjeux de la sortie de crise selon une thématique différente

Lire aussi