Publié dans Les Echos le 31 mai 2024.
D’après l’Agence Internationale de l’Energie, les centres de données ont consommé 460 térawattheures (TWh) dans le monde en 2022 – plus d’électricité que n’en a produit la France. En 2026, ce sera 820 TWh, dont 90 TWh pour l’intelligence artificielle.
Ces chiffres traduisent une réalité : toute consommation qui se démocratise utilisera une quantité d’énergie importante. Interroger ChatGPT ne consomme que 3 Wh – soit un demi expresso ou un gramme de croissant. Pour atteindre 90 TWh, chaque ordinateur ou smartphone dans le monde devra faire appel 12 fois par jour à l’intelligence artificielle dans deux ans. C’est dix fois plus que notre usage actuel des moteurs de recherche.
Avant que ce soit le cas, les modèles d’IA auront énormément évolué : le modèle Mistral-7B dévoilé en septembre 2023 donnait déjà des résultats impressionnants sans connexion à internet sur l’ordinateur (certes un peu puissant) sur lequel j’écris ce texte. Le modèle Llama3-8B, publié mi-avril, donne des résultats au moins comparables et peut tenir sur un smartphone. Et le modèle Phi3-3.8B publié une semaine plus tard est encore plus performant et frugal.
L’estimation de l’AIE est également un chiffre brut : les usages de l’intelligence artificielle auront des effets positifs, comme des économies d’énergie ou une amélioration de l’efficacité des réseaux électriques. L’IA n’est pas limitée à résoudre des énigmes ou écrire des poèmes : elle permet d’améliorer les processus et les conceptions industrielles, les flux ou les stocks, et d’économiser matière et énergie. Il en a été de même pour d’autres innovations : une carte routière consomme moins d’énergie qu’un GPS, mais si le GPS réduit la durée d’un trajet automobile de 0,01%, son impact net est positif. Il y aura aussi des effets d’éviction : passer plus de temps sur un ordinateur réduira d’autres activités consommatrices d’énergie. On a vu que l’augmentation du temps passé sur un smartphone réduit mécaniquement le temps devant la télévision, 100 fois plus énergivore qu’un téléphone.
L’étude de l’AIE est utile : en nous décrivant où les tendances actuelles pourraient nous mener, elle nous pousse à préciser notre stratégie pour rester cohérent avec nos ambitions climatiques. S’agissant de l’intelligence artificielle, la priorité est de reconnaître sa consommation d’énergie et de l’utiliser en priorité sur des usages justifiant cette consommation. Ensuite, il est crucial de poursuivre la recherche afin d’améliorer l’efficacité des modèles. En outre, il est important de veiller à ce que les besoins de l’IA soient couverts par des énergies décarbonées – à cet égard, le choix de Facebook d’interdire son modèle à l’industrie nucléaire est pour le moins paradoxal. Enfin, réglementer l’IA à cause de sa consommation n’aurait pas plus de sens que de réguler les consommateurs de café, de croissants ou d’émissions télévisées – la seule solution efficace reste un prix carbone qui laisse chacun libre de ses choix.
Vincent Champain est dirigeant d’entreprise et président de l’Observatoire du Long Terme (www.longterme.org), think thank dédié aux enjeux de long terme et Gilles Babinet est entrepreneur et l’auteur de « Green IA, l’intelligence artificielle au service du climat (Odile Jacob).