La transparence, gage de confiance dans l'IA

L'intelligence artificielle nous accompagne déjà au quotidien : assistants vocaux des smartphones, planificateurs d'itinéraires, outils de traduction... Pour que l'IA soit acceptée sur le long terme, il faut d'abord établir la confiance.

Un rapport de l’institut d’études de marché Splendid Research montre que les consommateurs attendent d’une solution d’IA qu’elle leur facilite les tâches au quotidien. 38% des personnes interrogées pensent que l’IA va améliorer leur vie. Un tiers, toutefois, perçoit l’IA comme une évolution dangereuse tandis qu’un autre tiers indique avoir peur des systèmes faisant appel à l’IA.

Les raisons de cette méfiance sont multiples : crainte de perte de contrôle de ses données, peur d’être surveillé par des machines et incertitudes quant aux règles d’éthique associées à l’utilisation de l’IA. Il est alors indispensable d’établir une relation de confiance entre l’utilisateur et les applications assistées par l’IA.

Lorsque les utilisateurs ne comprennent pas les décisions les concernant il leur est difficile de les accepter. C’est là qu’intervient l’IA explicable (XAI), un concept visant à rendre l’intelligence artificielle compréhensible. Grâce à l’XAI, le traitement des données ainsi que la prise de décision du logiciel d’IA sont tracés et deviennent transparents. Cette approche vient en aide aux utilisateurs, aux développeurs de modèles d’IA et aux autorités de régulation.

Les algorithmes dépendent des données

La qualité des données introduites dans le modèle d’IA a une incidence directe sur les résultats. Si les data sets ne sont pas complets, ils peuvent favoriser certains groupes d’individus. Un exemple récent : à conditions égales, une carte de crédit Apple accordait aux hommes une ligne de crédit plus importante qu’aux femmes. Une décision induite par les données fournies à l’algorithme. Aussi, on a constaté qu’un logiciel RH d’Amazon favorisait systématiquement les candidats masculins. Il est de l’ordre des entreprises et des personnes s’appuyant sur l’IA de s’assurer que les bases de données fournies aux algorithmes sont fiables et dignes de confiance.

La transparence des données est également un facteur important. Toute personne affectée par les décisions d’un algorithme, et dont les données personnelles peuvent être utilisées, devrait avoir la possibilité de comprendre les décisions prises par cet algorithme. Ceci est non seulement un bon moyen d’établir la confiance, mais aussi une exigence de la loi RGPD. En effet, L’article 22 sur les "Décisions individuelles automatisées, y compris le profilage", indique qu’il existe un "droit […] d’obtenir une explication quant à la décision prise à l’issue d’une évaluation". Cela ne signifie pas que les entreprises doivent publier leurs algorithmes, mais que le chemin ayant conduit à la décision doit être clair.

Contrôle et responsabilité créent la confiance

Dans le processus de développement d’un logiciel, il existe différents points de contrôle qui permettent de vérifier sa qualité. Il est nécessaire que les entreprises utilisent l’XAI pour vérifier les résultats de leur logiciel d’IA à chaque étape du développement. Ce processus permet alors de s’assurer que le logiciel produit les résultats escomptés et si non d’y apporter les corrections nécessaires.

Enfin, il est indispensable d’adopter une réglementation sur la responsabilité de l’IA.

Aujourd’hui, lorsqu’un conducteur cause un accident, la responsabilité lui en incombe. Mais que se passe-t-il lorsqu’une IA conduit le véhicule ? Qui est responsable, le constructeur automobile, le fabricant du logiciel d’IA ou le conducteur ? Pour faire accepter des technologies comme celles des véhicules autonomes, il est indispensable de définir un responsable. En mai, la Commission des affaires juridiques de l’UE a commencé à discuter d’un projet de règlement concret sur cette question. Les exploitants d’applications d’IA à haut risque supporteraient alors la responsabilité et devraient souscrire une assurance obligatoire pour couvrir les risques éventuels liés à ces applications.

L’Europe doit devenir un pionnier de l’IA

La discussion sur la responsabilité dans les applications d’IA n’est qu’un des aspects de la stratégie numérique de la Commission européenne présentée en février. Cette stratégie définit les mesures que l’UE entend adopter pour devenir un leader mondial dans les domaines de la numérisation, du traitement des données et, surtout, de l’IA. Cette dernière a d’ailleurs fait l’objet d’un Livre blanc sur l’IA, qui défini le futur cadre de son application. Ainsi, l’UE a-t-elle l’intention d’investir dans le développement d’applications d’IA, ou de prendre des mesures pour freiner les développeurs d’IA en Europe ?

Dans ce contexte, la Commission européenne envisage l’option de créer des centres indépendants pour tester et évaluer les algorithmes d’IA et les données utilisées. De même que pour les études cliniques, les applications d’IA doivent d’abord être testées en détail par des prestataires de services spécialisés avant de pouvoir être utilisées à grande échelle. C’est par exemple le cas des applications à haut risque utilisées dans le domaine de la santé ou de la sécurité publique.

L’intelligence artificielle est considérée comme une technologie essentielle du futur. C’est effectivement ce qu’a reconnu l’UE qui entend promouvoir l’utilisation de l’IA dans le cadre de sa stratégie numérique. Il s’agit également de renforcer la confiance dans l’IA, par exemple au moyen de cadres juridiques clairement définis.

Les entreprises doivent utiliser le concept d’IA explicable qui présente le processus décisionnel d’une IA de manière transparente aux utilisateurs. Cela élimine la crainte des utilisateurs qu’une IA utilise leurs données pour prendre des décisions opaques qui pourraient les affecter négativement.