Chaque requête adressée à ChatGPT mobilise une puissance de calcul, et donc une consommation énergétique non négligeable. Selon l’Agence internationale de l’énergie, une seule interaction avec ce modèle d’intelligence artificielle nécessiterait jusqu’à dix fois plus d’électricité qu’une simple recherche sur Google, rapporte Le Figaro. Résultat : même les formules de courtoisie telles que « bonjour », « merci » ou « au revoir » ont un coût énergétique – et financier – pour OpenAI, l’entreprise à l’origine de ChatGPT.
Interpellé sur ce point sur le réseau social X, le PDG de l’entreprise, Sam Altman, a confirmé avec une pointe d’ironie que « des dizaines de millions de dollars » avaient été « bien dépensés » pour couvrir ce surcroît de politesse. « On ne sait jamais », a-t-il ajouté, suggérant avec humour qu’il vaut peut-être mieux apprendre à l’intelligence artificielle à faire preuve de courtoisie… avant qu’elle ne songe à se retourner contre l’humanité.
tens of millions of dollars well spent–you never know
— Sam Altman (@sama) April 16, 2025
Au-delà de la dimension économique, le fonctionnement de ChatGPT soulève des enjeux environnementaux majeurs. Comme le rappelait en mars 2024 le professeur Dejan Glavas dans Le Figaro, le volume quotidien de requêtes adressées à la plateforme équivaudrait à la consommation électrique de 33.000 foyers américains. En termes d’empreinte carbone, une seule requête émise via ChatGPT générerait jusqu’à soixante fois plus d’émissions qu’une recherche Google.
Et pourtant, la tendance va dans le sens d’une utilisation croissante des chatbots : leurs réponses sont perçues comme plus rapides et plus pertinentes, ce qui incite les internautes à les privilégier pour leurs recherches quotidiennes.
Une IA à qui l’on parle avec respect… par prudence
Politesse ou précaution ? Selon une enquête du groupe de médias britannique Future, relayée par Phonandroid, 70% des utilisateurs préfèrent adopter un ton poli lorsqu’ils interagissent avec une intelligence artificielle. Plus surprenant : 12% le font par crainte d’influencer négativement le comportement futur de l’IA, voire de provoquer un hypothétique soulèvement. Une inquiétude qui fait écho, non sans humour, aux propos de Sam Altman.