Adopter les chatbots en toute confiance, oui mais à quelles conditions ?

Le sujet de l'IA générative n'est certes pas nouveau mais celui de son adoption sécurisée, lui, demeure alors que nous entrons dans la phase des agents IA.

Le sujet de l’IA générative n’est certes pas nouveau mais celui de son adoption sécurisée, lui, demeure. Depuis l’arrivée de ChatGPT à la fin de l’année 2022, ces nouveaux adjuvants ont bouleversé notre quotidien. Capables de fournir des réponses pertinentes et presque humaines, avec plus de plus d'un milliard de messages quotidiens et 3000 millions d'utilisateurs actifs chaque semaine pour Chat GPT, les IA ont rapidement conquis le grand public. Deux ans plus tard, nous entrons dans une nouvelle phase : celle des agents IA, des assistants autonomes capables de réaliser des tâches complexes et de prendre des décisions en notre nom.

Chaque semaine, de nouveaux agents émergent sur le marché, portés par des acteurs majeurs comme Microsoft, Salesforce, ServiceNow ou Priceline. Selon Gartner, ces agents représenteront un tiers des interactions avec les IA génératives d’ici à 2028. Mais comment les sécuriser ?

Un risque à calculer entre opportunités et failles de sécurité

Ces agents ou bots offrent une multitude d’avantages : acheter des actions sur la base de préférences données sans intervention humaine, réserver des billets de concert côté grand public, qualifier des prospects pour une entreprise, ou encore gérer des tâches personnelles comme l’envoi de documents, automatisé chaque mois. Ces capacités nécessitent toutefois l’utilisation de données sensibles, précieuses voire confidentielles, qu’il s’agisse d’informations personnelles ou d’actifs professionnels ce qui crée une certaine inquiétude de la part des utilisateurs notamment Français, qui, selon le BCG se déclarent préoccupés à 50% par la protection et la confidentialité des données

Pour tirer parti de cette technologie tout en protégeant les données et les identités, il est essentiel de répondre à des questions fondamentales :

●       Quels types de données les grands modèles de langage (LLM) exploitent-ils et comment les contrôler ?

●       Comment permettre aux entreprises et aux développeurs de faire confiance aux agents ?

●       Quels mécanismes existent pour garantir le respect de la vie privée lorsqu’un agent demande l’accès à des informations personnelles ?

●       Comment s’assurer qu’un agent est exploité par un fournisseur fiable ?

●       Quelles mesures de sécurité doivent être mises en place pour sécuriser les connexions entre agents et applications (les fameuses interconnexions) ?

●       Quelles vérifications supplémentaires exiger avant qu’un agent n’agisse en notre nom ?

Pour répondre à ces interrogations, les entreprises doivent instaurer des contrôles rigoureux et adapter leur politique de gestion des identités et des accès (IAM) afin de prévenir les abus et atténuer les menaces potentielles.

Mieux comprendre les risques inhérents aux agents IA

En quoi ces agents diffèrent-ils des applications traditionnelles ?

Des interconnexions difficiles à maîtriser et à cartographier : Contrairement aux applications classiques, les agents IA interagissent directement avec des sites et services tiers pour accomplir leurs tâches, ce qui multiplie les points d’entrée et donc la surface d’attaque potentielle.

Une architecture différente : Les agents s’appuient sur des technologies comme les LLM et les bases de données vectorielles, introduisant de nouveaux types de risques. Le Open Worldwide Application Security Project (OWASP) a ainsi mis en exergue les dix principales vulnérabilités associées à ces systèmes, notamment la divulgation d’informations sensibles ou l’exécution excessive d’actions autonomes.

Ces défis requièrent une approche réfléchie et centrée sur la gestion cadrée de l’identité pour sécuriser leur intégration.

Quatre clés pour une intégration sécurisée

Pour les entreprises soucieuses d'intégrer des agents à leurs services et leur produits en toute sécurité, quatre règles d’or s’imposent :

  1. Garantir une authentification forte de l’utilisateur
    Avant d’interagir avec des données personnelles ou de permettre une quelconque forme de personnalisation, un agent doit vérifier l’identité de l’utilisateur via des mécanismes d’authentification sécurisée.
  2. Cadrer l’environnement applicatif
    Les interactions des agents avec d’autres applications passent par des API. Assurer leur sécurisation est essentiel pour protéger les données et les actions effectuées au nom des utilisateurs.
  3. Garder le contrôle humain au premier plan
    Pour accomplir des tâches complexes ou différées (comme réserver un billet lorsqu’un prix cible est atteint), les agents doivent pouvoir fonctionner en arrière-plan tout en conservant un contrôle humain. Les utilisateurs doivent être notifiés pour approuver ou rejeter les actions, minimisant ainsi les risques d’automatisation excessive.
  4. Empêcher l’intégration de données non sourcées
    Les agents AI utilisent souvent le Retrieval Augmented Generation (RAG) pour enrichir les résultats des LLM avec des données externes. Il est impératif de limiter l’accès aux seules données autorisées, grâce à des permissions et des contrôles d’accès adaptés, afin de prévenir toute fuite ou utilisation abusive.

Vers un futur sécurisé et innovant

Pour exploiter tout le potentiel des agents, les entreprises doivent intégrer dès le départ des pratiques sécurisées tout en favorisant l’innovation. Certaines solutions permettent de garantir un accès strictement nécessaire aux données sensibles, tout en garantissant une supervision humaine et des intégrations sécurisées.

Nous sommes aux prémices d’une révolution technologique qui promet de rendre nos vies plus productives et orientées vers le gain de valeur ajoutée alors qu’en juillet 2023, 79% des décideurs déclarait déjà que des technologies telles que l'intelligence artificielle seraient essentielles à leur réussite dans les deux prochaines années (Gartner, États-Unis).  . En plaçant la sécurité et la confiance au cœur de leurs développements, les entreprises pourront non seulement protéger leurs utilisateurs, mais aussi offrir des expériences enrichissantes que nous ne pouvons qu’imaginer aujourd’hui.