Derrière chaque « s’il vous plaît » ou « merci » adressé à une intelligence artificielle se cache une réalité bien moins courtoise : une consommation énergétique délirante. Et ChatGPT, outil phare d’OpenAI, en est l’illustration parfaite. Car même la politesse a un prix, et il se chiffre en millions de dollars. C’est Sam Altman, PDG d’OpenAI, qui l’a reconnu à demi-mot sur X. Interpellé par un internaute curieux de savoir combien l’entreprise avait perdu à force de lire des marques de courtoisie, il a répondu avec une pointe d’ironie : « Des dizaines de millions de dollars bien dépensés. On ne sait jamais. » Derrière la blague, un constat : chaque requête – même anodine – mobilise les serveurs, augmente la facture électrique et alourdit l’impact environnemental.
Une phrase de trop, des milliers de watts
Chaque interaction, même ultra simple, nécessite un traitement massif dans les data centers. Résultat : ces centres de calcul énergivores s’emballent à la moindre formule de politesse isolée. Et la comparaison est édifiante : une requête sur ChatGPT consommerait dix fois plus d’électricité qu’une simple recherche Google, selon l’Agence internationale de l’énergie. À lui seul, le chatbot générerait une consommation équivalente à celle de 33 000 foyers américains… par jour. Et ce n’est pas tout. Pour maintenir leurs systèmes au frais, les data centers engloutissent aussi des litres d’eau. D’après une étude publiée en 2023 par des chercheurs californiens et texans, générer 10 à 50 réponses sur ChatGPT consommerait environ un demi-litre d’eau. D’ici 2027, l’IA pourrait absorber jusqu’à 6,6 milliards de mètres cubes d’eau par an, soit jusqu’à six fois la consommation annuelle du Danemark. Alors, faut-il arrêter d’être poli avec les IA ? Pas forcément. Mais à l’heure où chaque watt compte, peut-être vaut-il mieux réserver les bonnes manières aux humains.