Selon ces travaux, les émissions de CO2 consécutives à l’entraînement d’un modèle complexe, de ceux utilisés pour le traitement du langage naturel (par exemple pour la reconnaissance vocale ou la traduction), équivaut à celles qu’émettraient jusqu’à 5 voitures (carburant compris) pendant toute leur durée de vie, de la fabrique jusqu’à la casse!
Un chiffre à relativiser. Ce chiffre donne le tournis; mais un modèle d’intelligence artificielle n’apprend en général qu’une seule fois, ou tout du moins, un nombre fini de fois. Le modèle ne relance pas tout un cycle d’apprentissage à chaque fois qu’un utilisateur l’interroge, et heureusement!
La méthode de calcul.
Ces chercheurs ont d’abord évalué la consommation électrique du matériel informatique utilisé pour entraîner les algorithmes
Puis en fonction des sources d’énergies renouvelables ou non déclarées par les principaux datacenters mondiaux utilisés pour l’entraînement des modèles, les émissions de CO2 moyennes en ont été déduites.
À quoi ça sert? Les chercheurs formulent plusieurs recommandations:
Les chercheurs en intelligence artificielle devraient divulguer, outre leurs résultats théoriques, la durée de calcul qu’a nécessité l’entraînement de leurs modèles. L’enjeu est que les sociétés puissent ensuite réaliser une analyse coût environnemental-bénéfice afin de choisir un modèle le plus vert possible.
Les universités devraient se doter de leurs propres infrastructures techniques permettant l’apprentissage des algorithmes, afin que les chercheurs ne soient pas tributaires des services cloud - payants - proposés par Amazon, Google ou Microsoft.
Enfin, tout ne se rapporte pas au matériel: les chercheurs du domaine doivent s’intéresser à l’impact énergétique de leurs algorithmes, et s’assurer qu’ils soient davantage efficients.