IA : pourquoi dire “merci” ou “s’il vous plaît” à ChatGPT coûte une fortune à OpenAI

La politesse, souvent perçue comme une simple formalité dans nos échanges quotidiens, prend une toute autre dimension lorsqu’il s’agit d’interagir avec une intelligence artificielle comme ChatGPT. En effet, chaque mot, même ceux qu’on associe à la courtoisie comme « merci » ou « s’il vous plaît », a un coût bien réel pour OpenAI, l’entreprise derrière ce modèle d’IA. Ce phénomène peut paraître surprenant, mais il met en lumière l’énorme consommation d’énergie que nécessite chaque requête formulée.

Le coût caché de la politesse avec l’IA

Lors d’une récente discussion sur X (anciennement Twitter), Sam Altman, le patron d’OpenAI, a révélé une facette méconnue des interactions avec ChatGPT : chaque petit geste de politesse, comme dire « merci », engendre un coût énergétique non négligeable. La question avait été posée par un internaute qui s’interrogeait sur l’impact de ces simples marques de courtoisie sur les finances de l’entreprise. Et pour cause, chaque requête faite à ChatGPT, même pour une phrase anodine, mobilise des ressources énormes en termes de calculs, de recherches, et surtout d’énergie.

Selon Altman, bien que ces frais soient élevés, ils s’élèvent à des dizaines de millions de dollars. Mais, comme il l’a ajouté avec un brin d’humour, cet investissement est « bien dépensé ». Après tout, il est important que l’IA apprenne la politesse et réponde de manière adéquate aux utilisateurs. Cette révélation soulève la question du coût énergétique croissant de ces outils qui, tout en étant des merveilles technologiques, engendrent des coûts environnementaux et financiers considérables.

Une requête sur ChatGPT : un gouffre énergétique

Ce n’est pas qu’une question de dollars. Les chiffres montrent que l’impact environnemental des requêtes faites sur ChatGPT est colossal. Selon l’Agence internationale de l’énergie, une seule requête sur cette plateforme nécessite environ dix fois plus d’électricité qu’une recherche classique sur Google. En mars 2024, le professeur Dejan Glavas estimait que les requêtes quotidiennes sur ChatGPT consommaient autant d’électricité que 33 000 foyers américains pendant toute une journée.

L’impact ne se limite pas à l’électricité. Les data centers, qui hébergent ces intelligences artificielles, ont également un besoin considérable d’eau pour leur système de refroidissement, ajoutant ainsi une nouvelle dimension à l’empreinte écologique de ces technologies.

Une réflexion sur l’usage de l’IA

Au-delà des questions d’énergie et de ressources, cette prise de conscience sur les coûts des interactions avec les IA amène à réfléchir sur notre utilisation de ces technologies. Certes, le fanatisme du fan service et l’envie de rendre nos assistants virtuels « plus humains » en leur offrant des mots de politesse peuvent être séduisants. Mais à l’avenir, sera-t-il judicieux de dire « merci » ou « s’il vous plaît » à ChatGPT, sachant les conséquences écologiques et économiques de ces simples gestes ?

Les entreprises technologiques devront sans doute repenser la manière dont elles utilisent l’IA pour minimiser les coûts énergétiques, tout en continuant à offrir des services performants et accessibles à tous. Quant aux utilisateurs, peut-être vaut-il mieux privilégier la simplicité et limiter l’utilisation de certaines formules, non seulement pour alléger l’impact environnemental, mais aussi pour comprendre plus précisément la valeur cachée de chaque requête numérique.

Send this to a friend