Bouygues démocratise l'accès à ChatGPT en interne via Azure OpenAI

Bouygues démocratise l'accès à ChatGPT en interne via Azure OpenAI Le groupe français a décidé d'ouvrir l'assistant intelligent à l'ensemble de ses collaborateurs. Il lance en parallèle des projets visant à exploiter l'IA générative comme outil au service des salariés.

"Pour faire nos premiers pas dans l'IA générative, nous avons d'emblée choisi de démocratiser l'accès à ChatGPT en interne", explique Marie-Luce Godinot, directrice générale adjointe Innovation, Développement Durable, et Systèmes d'Information chez Bouygues. Dans cette optique, le groupe français s'est tourné vers Azure OpenAI, le service cloud de Microsoft permettant de bénéficier de l'assistant intelligent en environnement maitrisé. Objectif affiché par l'entreprise : laisser ses salariés expérimenter l'ensemble des cas d'usage possibles de ChatGPT en matière de productivité individuelle, de la génération à la synthèse de texte en passant par la traduction. Le tout via un service sécurisé, avec à la clé l'assurance que les données restent hébergées sur le continent européen.

Pour cadrer l'utilisation de ChatGPT, Bouygues a élaboré un set de règles du jeu. Une charte qui rappelle "le potentiel de l'outil pour optimiser les process, favoriser la créativité, gagner en efficacité". Mais qui évoque en parallèle les risques qu'il peut engendrer, en matière de fuite d'informations confidentielles ou sensibles, d'atteinte au droit de propriété intellectuelle ou encore de génération de résultats erronés ou biaisés. "Nous avons conçu ces règles du jeu, non pas pour interdire purement et simplement, mais pour accompagner et sensibiliser les collaborateurs aux principales bonnes pratiques d'usage de la solution et fixer des limites. Nous avons également créé un programme de formation au prompting. Ce type de programme a vocation à se déployer largement", commente Marie-Luce Godinot. "Nous avons au départ choisi ChatGPT sur Azure dans la mesure où cette offre est relativement simple et rapide à mettre en œuvre. Microsoft est par ailleurs un partenaire de longue date."

Le support en première ligne

En matière de productivité individuelle, Bouygues ne se limite pas à ChatGPT. Il teste aussi d'autres outils. C'est le cas notamment de Microsoft Copilot ou d'autres solutions, notamment centrées sur la génération de compte-rendu de réunion.

Aux côtés de la productivité individuelle, Bouygues s'est lancé dans un vaste chantier visant à développer des feuilles de routes par entités métier : Bouygues Construction, Bouygues Immobilier, Bouygues Télécom, Colas, Equans, TF1... Idem par filières : RH, juridique, finance, informatique... L'enjeu ? Dénicher les cas d'usage les plus pertinents et porteurs de valeur et de productivité au regard des différents contextes business. "Globalement, l'objectif n'est pas de remplacer les collaborateurs par des IA mais plutôt de leur fournir des assistants intelligents pour les aider à travailler plus efficacement", explique Marie-Luce Godinot.

"Le ROI doit être rapide car on est sur un domaine dont on ne sait pas de quoi demain sera fait"

Parmi les projets d'IA générative les plus avancés du côté des entités métier, Bouygues Télécom exploite les large language model (LLM) pour résumer les conversations de son service de support client. En ligne de mire : permettre à ses agents de gagner en efficacité en accédant aux points clés abordés au fil des appels. Chez TF1, on planche sur l'application de l'IA générative pour archiver les vidéos en automatisant leur indexation et leur description. Du côté côtés des fonctions business, l'IT teste des assistants de codage, notamment GitHub Copilot. Résultat : un accroissement de la productivité des développeurs de 15% à 40%. Le groupe déploie également un bot pour épauler les équipes RH. Côté juridique enfin, des réflexions sont en cours pour aider à l'analyse de contrat, de la détection d'éléments saillants à l'identification de clauses inhabituelles.

Dans la même logique, Bouygues développe un assistant sur le terrain du RSE (responsabilité sociétale des entreprises). Ici, le défi est de répondre aux dizaines de questionnaires reçus chaque année en provenance d'ONG, d'investisseurs ou toute autre institution intéressée. L'assistant en question permet de préparer les réponses attendues en glanant des informations dans la vaste documentation de Bouygues sur ces sujets : objectifs de réduction de gaz à effet de serre, engagements en matière de biodiversité, etc. Pour mettre en musique ce process, Bouygues a recours à la recherche intelligente ou Rag (pour retrieval augmented génération). Ce qui lui permet de maitriser et tracer chaque source d'informations.

Des transferts d'expérience

Côté technologie, Bouygues ne compte pas arrêter son choix sur un LLM unique. "L'offre est riche. Notre objectif est d'abord de bien comprendre comment les LLM fonctionnent en testant différentes offres. Bouygues compte par ailleurs sur des retours sur investissement dans des délais très courts. "Le ROI doit être rapide car on est sur un domaine dont on ne sait pas de quoi demain sera fait. On ne sait pas comment l'offre de LLM d'aujourd'hui va évoluer demain, et ce qui va être intégré dans nos solutions par nos éditeurs. De ce point de vue, ce n'est pas un chantier de transformation traditionnel au long court de type ERP", commente Marie-Luce Godinot.

Pour gagner en vitesse, Bouygues mise par ailleurs sur le partage d'expérience, à la fois d'un point vue fonctionnel et d'architecture technique. Dans la même logique, il mise sur la formation et la sensibilisation de la direction. Le comité directeur du groupe comme les 500 plus hauts cadres de l'entreprise ont tous été formés à l'IA générative, notamment en vue d'en saisir les enjeux tout en bénéficiant de retours d'expérience d'autres sociétés. Dans l'IA générative, Bouygues s'est mis en ordre de bataille.