Chez Auchan, l'IA générative fait gagner du temps à trois métiers
Le distributeur a notamment déployé un assistant reposant sur le modèle de langue Gemini de Google. Objectif : passer outre le reverse engineering de ses anciennes applications en vue de les moderniser en un temps record.
Comme la plupart des grandes entreprises, Auchan s'est lancé dans l'IA générative très tôt. Pour l'heure, le distributeur français compte trois projets de GenAI qui ont passé le cap de la mise en production, avec dans chaque cas des indicateurs clés de résultat qui démontrent le potentiel de cette technologie.
Un middleware refondu en un temps record
Le projet de GenAI d'Auchan le plus spectaculaire en termes de résultat concerne sa transformation numérique. Sur ce terrain, le groupe a recours à l'IA générative pour pallier le déficit de documentation technique de ses anciennes applications en vue de les réécrire plus rapidement. "Nous avions par exemple un middleware maison qui était conçu pour coordonner la logistique amont, depuis les fournisseurs jusqu'aux entrepôts, avec la logistique aval en magasins. Il était très compliqué et relativement mal développé. Il mélangeait des règles d'ordonnancement de flux à des règles métier. Sans compter qu'il était très mal documenté", raconte Samir Amellal, DSI et CDO d'Auchan.
Grâce à la GenAI, l'entreprise de Villeneuve-d'Ascq a créé, à partir du code du middleware et du peu de documentation disponible (répartie dans des documents Word, Excel et des commentaires intégrés au programme), un assistant intelligent permettant de répondre aux questions des développeurs sur les sources de l'application. "L'assistant peut expliquer comment fonctionne tel ou tel flux, et quel type de format de données il utilise. Mais aussi détailler les workflows logistiques orchestrés en tâche de fond. Enfin, il décrypte les impacts en cas de modification d'un workflow sur les autres parties du code", pointe le DSI.
Le dispositif a permis à Auchan de refondre son middleware en un temps record. "Grâce à cet assistant, nous avons pu réécrire les flux les plus complexes, c'est-à-dire environ 30% du middleware. Ils ont été déployés dans le courant de l'été. Ce projet a demandé trois mois de mise en œuvre, contre un an si nous n'avions pas pu bénéficier de l'IA générative. Elle nous a permis d'éviter la phase chronophage de reverse engineering qui implique d'analyser et de tester le code en profondeur pour comprendre les traitements réalisés par tel ou tel bout de code en vue de sa réécriture. En termes de productivité, c'est sans commune mesure avec ce qu'on a pu connaître avant l'arrivée de la GenAI", se félicite Samir Amellal,
Résultat, Auchan s'appuie "désormais sur cette technologie pour chaque application à réécrire." Globalement, la phase de reverse engineering représente entre 30 à 40% du temps nécessaire lors de la migration d'une solution vers une autre, plus moderne. Grâce au dispositif mis au point par Auchan, cette étape ne représente plus que 10% à 15% du travail. En toile de fonds, l'assistant s'adosse au cloud de Google et à son service d'IA générative Gemini qui est considéré comme l'un des plus pertinents pour ce cas d'usage.
Un assistant pour les opérateurs de call center
"Nos clients n'interagissent pas directement via une IA générative. On préfère positionner des êtres humains pour leur répondre"
Autre projet de GenAI, moins original, Auchan a déployé un assistant pour aider les opérateurs de ses centres d'appels à répondre aux questions de ses clients. "Nos clients n'interagissent pas directement via une IA générative. On préfère positionner des êtres humains pour leur répondre. En revanche, on cherche, via la GenAI, à rendre ces derniers plus efficaces", souligne Samir Amellal.
Pour éviter aux agents d'aller glaner des informations dans la documentation technique, les questions-réponses et autres logigrammes, le distributeur leur met à disposition un assistant auquel ils peuvent directement s'adresser. Objectif affiché : générer une réponse immédiate en langage naturel en vue de réduire le délai de réponse et les éventuelles congestions dans les flux d'appels. "Nous avons commencé par un test sur l'un de nos centres d'appels français avant de généraliser le déploiement à tous nos call centers en France et à l'étranger", précise Samir Amellal. Quels sont les résultats ? Auchan observe une réduction moyenne de 20% du temps d'appel. Ce qui est significatif compte tenu du nombre de sollicitations massif reçu par téléphone chaque mois.
En coulisse, c'est l'assistant GPT-4 d'OpenAI qui a été retenu dans sa version Enterprise. Une édition qui permet à Auchan de mettre en musique un mécanisme de RAG (pour retrieval augmented generation) en vue d'ingérer l'ensemble de sa documentation relative au support client.
Un assistant RH
Mais ce n'est pas le seul projet d'assistant intelligent lancé par Auchan. Le groupe a aussi mise en place un chatbot conçu pour répondre aux questions de ses collaborateurs. Une application qui est pour l'heure limitée au champ de la gestion des ressources humaines. Elle répond aux questions concernant les vacances ou encore les jours de congé maternité et paternité. Au lieu de contacter les RH ou passer par un logiciels tiers, les salariés peuvent s'adresser directement à l'assistant.
Globalement, la solution permet un gain de temps d'un jour et demi à deux jours par mois pour les responsables RH. Pour cela, Auchan fait appel au large language model (LLM) open source Llama de Meta. Un modèle qui est hébergé en interne compte-tenu des informations manipulées : des données personnelles considérées comme confidentielles par le groupe. Le distributeur a ici aussi recours à un service de RAG en vue d'indexer les data. "On s'est posé la question de généraliser Llama à toutes les fonctions métier. Mais c'est une solution relativement chère à exécuter. Dans notre cas, le ROI est très discutable. En revanche, ce produit apporte un réel gain en matière d'ergonomie", analyse Samir Amellal.
Pour l'heure, Auchan a recours à des processeurs graphiques (GPU) pour exécuter Llama. "De nouveaux types de processeur, baptisés LPU (pour language processor unit, ndlr), sont capables de gérer de l'inférence à des coûts beaucoup plus faibles que les GPU. Du coup, les tarifs vont à terme baisser. Ce qui nous permettra d'atteindre la rentabilité sur ce troisième projet", anticipe Samir Amellal.