L'identité numérique à l'ère de l'IA agentique : qui a le contrôle ?

Les entreprises seront bientôt réduites à de simples requêtes ChatGPT. Plus qu'une phrase choc, il s'agit là d'une analyse stratégique réaliste basée sur l'état actuel et croissant de l'IA agentique.

En effet, Capgemini a récemment rapporté que 50 % des dirigeants d'entreprise prévoyaient de mettre en œuvre des agents d'IA cette année. D'ici à trois ans, ce pourcentage devrait passer à 82 %. Nous nous dirigeons à toute vitesse vers un monde où les agents d'IA prendront des décisions à notre place, par exemple, en nous recommandant des achats, en autorisant des transactions et même en déterminant quelles entreprises seront visibles, sans qu’elles n’interviennent... Ces agents ne sont pas sensibles au marketing traditionnel, aux campagnes de fidélisation ou aux offres promotionnelles. Ils s'intéressent aux données structurées et aux rapports signal/bruit.

Ce qui soulève une question fondamentale : qu'adviendra-t-il de l'identité et de la confiance lorsque notre présence numérique sera déterminée par des machines ?

De l'identité humaine à la probabilité déterminée par l'IA

L'identité a toujours été associée à une interface, qu'il s'agisse d'une page de connexion, d'un permis de conduire, ou même d'une poignée de main. Cette interface d'identité, gérée par l'humain, est souvent un facteur clé dans l'établissement des interactions avec les clients et de leur fidélité à long terme. Mais avec l'essor de l'IA agentique, cette interface disparaît. Aujourd'hui, l'identité n'est plus tournée vers l'humain, puisque l’interaction se fera avec une machine.

Imaginons le scénario suivant : un directeur financier demande à son assistant IA quel logiciel de comptabilité l'entreprise devrait utiliser. Au lieu d’effectuer des recherches sur une douzaine de sites web, l'agent d'IA analyse les évaluations structurées, ingère les modèles de langage, vérifie les métadonnées de confiance et fait une sélection quasi instantanée. À une époque où les dirigeants sont contraints de faire plus avec moins (et où chaque minute représente une économie en termes de retour sur investissement), il est compréhensible que le directeur financier se fie à cette recommandation. Mais le hic, c'est que la marque de l'éditeur de logiciels est devenue une probabilité pondérée.

Si les entreprises ne parviennent pas à structurer et à affirmer leur identité dans les environnements IA natifs, elles seront mal représentées, inventées de toutes pièces ou tout simplement ignorées. Alors que l'IA agentique commence à remodeler chaque décision commerciale et chaque interaction avec les clients, il est nécessaire de se préparer en se posant ces questions :

Que se passe-t-il lorsque les bots d'IA sont manipulés ?

Qui est responsable lorsqu'un agent d'IA choisit un fournisseur sur une base de données erronées ?

Quelle est l'éthique lorsque la loyauté de l'assistant va à l'efficacité ?

Il est impératif d’apporter des réponses pour se préparer à l'avènement de l'IA agentique.

La nouvelle surface d'attaque de l'IA ? L’identité de marque 

Un thème plus vaste se cache derrière ces questions : l'identité. Celle-ci n'est plus définie par ce que vous affirmez être, mais par l'interprétation des machines. La situation est d'autant plus complexe que les machines sont intrinsèquement agnostiques quant à l'intention. Autrement dit, elles ne se soucient pas de savoir si vous vouliez mettre à jour la documentation et ne vous accorderont certainement pas le bénéfice du doute. Pire encore, ces machines peuvent être manipulées via des données contradictoires, incitées par des intentions biaisées et usurpées par des sources similaires, ce qui rend les inventions, les extrapolations et les erreurs beaucoup trop probables.

Sur cette nouvelle surface d'attaque alimentée par l'IA contre l'identité de marque, les gagnants ne seront pas ceux qui crieront le plus fort, mais ceux qui seront lisibles par les machines, structurés et vérifiables. La représentation de la vérité, de l'autorité et de l'autorisation entre agents autonomes sera plus cruciale que jamais, non seulement pour les clients et les marques, mais aussi pour la société dans son ensemble.

L'identité, nouvelle infrastructure morale

L'identité a toujours reposé sur la confiance et l'éthique. Nous sommes enclins à faire confiance à ce que nous entendons, voyons et lisons. Mais aujourd'hui, l'IA a complètement modifié cette confiance et, par conséquent, l'éthique est également remise en question. Si un agent d'IA prend une décision qui cause un préjudice, qui est à blâmer ? Le prompt ? Le modèle ? L'humain qui est derrière ? Les données qu'il a ingérées ?

Nous entrons dans une ère où l'intention est synthétique, l'action automatisée et les conséquences floues. Notre approche humaine et nos systèmes existants ne sont pas conçus pour cela. Nous avons besoin d'un nouveau niveau de médiation éthique qui s'inscrive au cœur même de l'identité numérique.

Ce que l'on peut faire, dès maintenant 

La première étape pour prendre le virage de l'IA agentique est l'éducation et la sensibilisation. Il est important de comprendre comment les consommateurs prennent leurs décisions et comment une marque apparaît - ou non - dans les recherches LLM (Large Language Model).

Une fois la prise de conscience générale établie, les entreprises pourront prendre un certain nombre de mesures immédiates pour se préparer à la suite des événements. Voici nos recommandations :

Provisionnez les agents d'IA comme tout autre utilisateur. Même ces machines ont besoin d'identités, de références et de règles. Ce traitement sera également utile lors de la mise en place d'une médiation éthique.

Surveillez leur comportement en permanence. Le risque n'est pas statique et la confiance non plus. Surveillez en permanence le comportement des utilisateurs – qu’ils soient humains ou non - afin d'identifier tout comportement inhabituel.

Intégrez la révocation dans le stack : lorsqu'un agent d'IA devient incontrôlable, débranchez-le. Bloquez-le avant qu'il ne soit trop tard.

Structurez l'identité des machines. La lisibilité humaine ne suffit pas. Vous avez besoin d'une couche de métadonnées.

Auditez chaque décision. Si un agent agit, la trace doit être visible, explicable et réversible. Traitez les décisions des agents comme vous le feriez pour des actions humaines.

L'identité n'est plus seulement une question de connexion. Il s'agit maintenant de savoir qui agit, au nom de qui et avec quelle autorité. Nous sommes à l'aube d'une transformation majeure de l'identité numérique, et le pouvoir peut rester aux mains des humains si les précautions nécessaires sont mises en place.

Nous devons agir dès maintenant pour maintenir la confiance qui, à l'ère de l'IA, sera notre atout le plus précieux.