Salesforce s'appuie sur une IA éthique pour gagner la confiance des entreprises

Salesforce s'appuie sur une IA éthique pour gagner la confiance des entreprises Salesforce veut convaincre les entreprises d'adopter l'IA en s'engageant à garantir la sécurité et l'éthique dans ce domaine. Une manière aussi de préparer le terrain avant l'arrivée des réglementations sur l'IA.

Lors de la dernière édition de Dreamforce qui a réuni près de 40 000 participants à San Francisco du 12 au 14 septembre, Marc Benioff, patron emblématique de Salesforce, n'a pas hésité à présenter la conférence comme " le plus important événement de l'année dédié à l'IA". Une déclaration qui traduit l'ambition du leader mondial du CRM d'intégrer l'IA générative dans tous ses produits. Baptisé Einstein, l'IA de Salesforce devrait ainsi changer la manière dont les utilisateurs interagissent avec les services de la plateforme. " La nouveauté est que l'IA devient désormais accessible aux non développeurs", résume Emily Sidiqian, EVP & GM de Salesforce France.

L'entreprise a notamment dévoilé la création d'une nouvelle plateforme IA baptisée Einstein 1 ainsi que le lancement d'Einstein Copilot, un ChatGPT-like intégré et connecté aux données clients. Cet assistant intelligent permet notamment de répondre en langage naturel aux questions des utilisateurs et de prodiguer des conseils. L'entreprise a également présenté Einstein Copilot Studio, un outil permettant à ses clients de personnaliser le chatbot et de créer des applications basées sur ce dernier. Si le CEO de Salesforce a indiqué que "l'IA est actuellement la priorité n°1 des décideurs", ce dernier est également conscient des inquiétudes entourant l'usage de cette technologie.

Une équipe dédiée à l'éthique

Selon une étude réalisée par Salesforce, près de 85 % des responsables IT français s'attendent à ce que l'IA générative joue un rôle majeur dans leur organisation. Pour autant, 52% des clients estiment que cette technologie n'est pas assez sécurisée et fiable. La pertinence des résultats mais aussi l'utilisation de données potentiellement sensibles sont autant de freins à son adoption. Une situation qualifiée de "trust gap" par le patron de Salesforce. L'une des missions assignées à Paula Goldman, devenue en 2019 la première "chief ethical and humane use officer" du groupe, consiste précisément à réduire cette disparité de confiance. L'un de ses objectifs principaux est de garantir que les produits Salesforce qui intègrent l'IA inspirent la confiance chez les clients.

Collaborant étroitement avec équipes techniques et produits, son rôle inclut notamment la recommandation des fonctionnalités et la définition de règles d'usage. "Pour la création de notre offre Data Cloud, nous avons travaillé étroitement avec l'équipe en question afin de définir un ensemble de fonctionnalités de gouvernance des données, qui représente une condition indispensable pour aboutir à une IA responsable", confie Paula Goldman au JDN.  L'autre grande initiative de Salesforce visant à rassurer ses clients se nomme Einstein Trust Layer, une architecture d'IA sécurisée et intégrée nativement dans la plateforme. Cette technologie permet notamment aux entreprises de profiter de l'IA générative sans compromettre les données de leurs clients. Celles-ci ont l'assurance que leurs données ne seront jamais conservées par des fournisseurs de grands modèles de langage (LLM) tiers, alors que le masquage des informations personnelles (PII) des clients offre une confidentialité accrue. Un détecteur de sécurité des LLM permet également de protéger des problèmes de toxicité et autres risques.

Préparer le terrain avant la réglementation de l'IA

Rob Katz, vice-président de la gestion des produits au sein de l'équipe dédiée à l'IA responsable de Salesforce, a joué un rôle essentiel dans la conception de l'architecture d'Einstein Trust Layer. Selon lui, la capacité à visualiser et à exercer un contrôle sur l'utilisation des données représente un élément rassurant pour les clients de Salesforce. A ses yeux, l'IA est la prochaine grande révolution technologique et celle-ci ne peut pas être abordée avec la mentalité "move fast and break things" qui caractérise l'état d'esprit des entrepreneurs de la Silicon Valley.  "Le secteur dans son ensemble s'accorde à dire que, pour débloquer le potentiel de l'IA, il faut créer de la confiance en développant une IA responsable et des utilisations éthiques", explique-t-il au JDN. Rob Katz précise que ces initiatives ne visent pas uniquement à rassurer les entreprises mais également le grand public afin que cette technologie soit largement acceptée et adoptée.

Cela tombe bien car c'est également l'objectif des législateurs européens et américains, qui souhaitent rapidement encadrer l'usage de l'IA pour garantir la sécurité des citoyens. Les équipes de Salesforce s'y préparent et étudient attentivement les premières propositions des futurs cadres réglementaires, à commencer par l'IA Act européen. Rob Katz précise "qu'une grande partie de cette réglementation reposera sur les épaules des déployeurs". Dans ce cas précis, il s'agit des clients, partenaires et autres développeurs de de l'écosystème Salesforce. "Notre volonté est d'assister nos clients dans leur démarche de conformité avec ces réglementations, surtout lorsqu'ils souhaitent personnaliser leur solution en utilisant notre plateforme d'IA", explique Rob Katz.

Lorsqu'on lui demande ses attentes concernant les futures réglementations, il plaide en faveur d'une approche proportionnelle aux risques. Pour illustrer, il suggère qu'une utilisation de l'IA susceptible d'exclure des consommateurs de certains avantages lors de la souscription d'une assurance devrait être soumise à une réglementation plus rigoureuse, tout comme des applications associées à la fourniture de conseils médicaux. Aux yeux de Paula Goldman, également membre du National Artificial Intelligence Advisory Committee (NAIAC) aux US, il est aussi important d'imposer une mention stipulant l'usage de l'IA lors de la production de contenus. "Vous devriez être informé chaque fois que vous interagissez avec un système IA et non une personne réelle", explique-t-elle au JDN.

Des entreprises à la recherche de partenaires de confiance 

Les décideurs ne cachent pas leur enthousiasme quant à l'utilisation de l'IA pour accroître l'efficacité et stimuler la croissance. Audrey Hazak, SVP Digital CRM chez Schneider Electric, voit en Einstein un outil précieux pour permettre aux commerciaux de mieux cibler les opportunités commerciales et clôturer des contrats plus rapidement. L'entreprise a déjà constaté une réduction de 30% du temps de cycle dans la clôture de ses deals. L'IA simplifie le travail des équipes de vente en prérédigeant des e-mails et en facilitant la planification de rendez-vous avec les clients. Outre son impact sur la partie Sales, cette technologie devrait également entraîner des gains de productivité significatifs dans la gestion du support client. "L'IA va permettre d'assister nos agents du service Customer Support qui gèrent près de 8 millions d'interactions clients par an", explique Audrey Hazak. Au lieu de suivre des scripts prédéfinis, ces derniers pourront se voir proposer des actions en temps réel grâce à une IA connectée aux données clients. L'entreprise espère devenir plus réactive et réduire les cycles de vie, historiquement longs dans ce secteur.

Malgré tout, Schneider Electric avance encore prudemment sur ce terrain de la GenAI. La société a ainsi rapidement encadré l'usage de l'IA générative en interne, consciente de la sensibilité liée à l'utilisation de données internes. "Le discours de Salesforce nous a rassuré car nous ne travaillerons qu'avec des partenaires de confiance", prévient la SVP Digital CRM de Schneider Electric.

Une approche réfléchie pour la génération d'images

Concernant l'usage de l'IA dans la génération d'images, Salesforce avance prudemment, alors que l'accentuation de certains biais existants rend cette technologie encore difficile à appréhender selon Rob Katz. Si ce dernier confirme que l'entreprise travaille sur des projets dans ce domaine, Salesforce souhaite d'abord mettre en place des mesures de protection appropriées avant de mettre ces outils de génération d'image dans les mains de ses clients. "La législation sur les droits d'auteur, notamment aux Etats-Unis, n'est pas encore adaptée aux possibilités offertes par la génération d'images via l'IA", souligne également Rob Katz.

Emilie Sidiqian, general manager de Salesforce France, souligne d'ailleurs que Salesforce est passé d'un simple outil CRM à une plateforme de transformation numérique offrant une vision à 360 degrés aux entreprises. Selon elle, "l'IA n'est plus uniquement discutée par les responsables des services IT, mais elle est désormais un sujet abordé dans tous les comités de direction". Nul doute que le discours de Salesforce portant sur la sécurité des données et une IA éthique devrait résonner auprès de dirigeants d'entreprises en quête de garanties…