Un demi-litre d’eau : c’est ce que nous « consommons » lorsque nous posons à Chat GPT, Grok ou Gemini les questions qui nous passent par la tête, entre dix ou trente selon la difficulté et la longueur. En effet l’intelligence artificielle ne consomme pas seulement de l’énergie mais, pour absorber la chaleur que celle-ci libère, du liquide de rafraîchissement, c’est-à-dire de l’eau, notamment pour ses centres de stockage des données. On constate de Microsoft, principal partenaire d’OpenAI a augmenté sa consommation d’eau de 34 % en 2022, l’année du grand développement. Elle a atteint 6,4 millions de tonnes, soit l’équivalent de 2.500 piscines olympique. La consommation de Google a connu un saut moindre de 20 % l’année suivante, atteignant 24 millions de tonnes. Certains estiment que l’empreinte hydrique de l’intelligence artificielle va croître exponentiellement dans les prochaines années pour atteindre 6 milliards de tonnes d’eau dès 2027. Ils y ajoutent l’empreinte hydrique indirecte causée par les centrales électriques (thermiques ou nucléaires), nécessitant de l’eau pour les rafraîchir.
Les écologistes enfourchent ce nouveau cheval pour contrer le développement de l’IA comme ils combattent toute nouvelle technique. En Espagne, par exemple, est né un mouvement « Tu cube seca mi rio » (« Ton nuage assèche ma rivière ». Mais il semble bien que ce soit comme à l’accoutumée pour terroriser le public : 6 milliards de tonnes d’eau ne représentent qu’un cube d’un peu plus de 1,8 kilomètres de côté, et rien n’interdit de construire les centres de stockage des données au bord de l’océan, réservoir d’eau pratiquement inépuisable : l’eau « consommée » est en effet constamment réinjectée dans un cycle sans fin. Comme l’a montré reinformation.tv, il y a suffisamment de raisons sérieuses de se méfier de l’IA pour n’en pas inventer : mais la propagande climatiste ne s’arrête jamais.