L'IA pour la durabilité, ou comment mettre l'innovation au service de la société

Cent millions d'utilisateurs deux mois après son lancement : jamais une technologie n'avait conquis à ce point les consciences collectives.

L’irruption de ChatGPT dans le paysage numérique mondial a cristallisé espoirs, curiosités et angoisses. Mais comme souvent dans l’histoire de l’innovation, l’emballement précède la réflexion. L’enjeu consiste désormais à déterminer avec rigueur les usages où l'intelligence artificielle va rendre réellement service. En particulier, et si l’on se posait la question de son impact sur les sujets de durabilité ?

Les technologies dites "génératives" se distinguent par leur capacité à produire du texte, du code, des images ou des raisonnements, en agrégeant des corpus existants à l’aide de modélisations statistiques, et en proposant un résultat plausible. S’il l’on peut débattre du qualificatif d’intelligence associé à une telle démarche, fondamentalement ancrée dans le déjà-vu, on ne peut nier que cette production automatique de contenu est impressionnante et possède de nombreux domaines d’application.

Pourtant, leur coût physique est loin d’être négligeable. L’impact environnemental de l’intelligence artificielle, bien que difficile à quantifier avec précision, commence à susciter de sérieuses préoccupations. Loin des représentations immatérielles qui entourent souvent le numérique, l’IA repose sur des infrastructures bien concrètes : GPU surdimensionnés, datacenters géants, consommation excessive d’électricité, d’eau et de ressources au sens large. Dans un contexte où les directions RSE et HSE sont de plus en plus sollicitées sur les obligations liées à la sobriété énergétique – notamment dans les datacenters – ce sujet ne peut être éludé. Enfin, l'entraînement d’un modèle à large échelle et son usage ont tous les deux un impact environnemental significatif. À ce sujet, la startup française d’IA Mistral a fait preuve d’une transparence rare, en publiant le 22 juillet dernier - en collaboration avec l’Ademe et Carbone 4 - une étude sur l’impact, notamment sur les émissions de CO₂, de l’entraînement et l’usage de ses modèles. Cette étude révèle que si une requête formulée à leur agent conversationnel n’équivaut, en empreinte carbone, qu’à 5 mètres parcourus en voiture, l’entraînement d’un seul de leurs modèles équivaut pour sa part à parcourir deux fois le tour de la Terre. Ce chiffre, à lui seul, devrait inciter à une forme de sobriété. Du côté des entreprises, grandes utilisatrices de l’IA, la tension devient évidente entre impératifs de performance technologique et objectifs de réduction des émissions qu’elles s’imposent dans le cadre de leur trajectoire RSE. Plus généralement, certaines voix comme Jean-Marc Jancovici n’hésitent plus à poser frontalement une interrogation fondamentale : quelle est, au juste, l’utilité sociale de ces outils si coûteux pour l’environnement ?

L'IA est un amplificateur. Loin d'être une finalité en elle-même, elle se positionne comme un catalyseur puissant, capable d'amplifier les capacités humaines et systémiques. Son rôle fondamental est d'optimiser l'exécution des tâches, en apportant une rapidité et une efficacité sans précédent. Par conséquent, la valeur sociétale de l'IA est indissociable de la nature des objectifs que son utilisateur cherche à atteindre. Dans le contexte actuel, marqué par l'urgence croissante des défis liés à la durabilité – qu'ils soient environnementaux, sociaux ou économiques – l'intégration de l'IA pour aborder ces enjeux apparaît non seulement comme une démarche pertinente, mais également comme une nécessité légitime.

Dans le secteur de la durabilité, la tentation est donc grande, dans les entreprises, de vouloir "faire de l’IA" à tout prix tant la promesse semble belle : production de rapports facilitée, détection d’erreurs automatique, association de facteurs d’émissions en un clin d’œil… Pourtant, la réalité est toute autre. Plus que dans tout autre secteur, les données RSE et HSE se doivent d’être parfaitement auditables. Or, l’IA est notoirement une boîte noire qui s’oppose à la traçabilité de la donnée depuis sa collecte jusqu’au rapport. Comment justifier des heuristiques de contrôles de données mises en place si l’on s’est reposé sur l’IA pour faire le tri ? De l’association d’une donnée avec un facteur d’émissions fourni par l’IA ? Du fait que la réponse à tel indicateur est extrêmement vague faute de données, ce qui n’a pas dérangé l’IA mais aurait alerté un contributeur humain ?

Ne nous laissons pas éblouir par les prouesses de l’IA. Sa nature statistique fait que le contenu qu’elle génère nous apparaît plausible, emporte notre confiance et monopolise notre attention. Car, quelque importante qu’elle soit, ce n’est pas la donnée qui transformera nos entreprises. C’est notre capacité à rendre cette donnée actionnable et à la mettre en mouvement, en l’entourant d’une gouvernance claire, et en développant la capacité collective à s’en saisir. Il convient de redoubler de vigilance lorsqu’on associe l’IA à la production de contenu stratégique et auditable. Utilisons-la pour automatiser la configuration de nos outils, pour gagner en qualité en analysant les réponses à des questionnaires que nous n’aurions jamais pris le temps de traiter manuellement, en l’utilisant comme assistant pour se former sur les sujets de durabilité, mais ne perdons jamais la maîtrise et la traçabilité de nos données. Et, surtout, ne perdons pas de vue qu’elle n’est qu’un outil pour atteindre nos objectifs de performance durable. Il en va de la crédibilité de nos entreprises.