Etablir un nouveau contrat de confiance grâce à l'intelligence artificielle

Autrefois thème de science-fiction, l'intelligence artificielle (IA) est désormais présente dans nos maisons, nos voitures ou encore nos poches. La place grandissante qu'occupe la technologie dans nos vies soulève une question importante : quelle confiance peut-on et doit-on accorder aux systèmes utilisant l'intelligence artificielle ?

Une question à laquelle la Commission européenne a justement travaillé à répondre en proposant la loi sur l'intelligence artificielle. Margrethe Vestager, la vice-présidente exécutive de la Commission européenne a déclaré dans un communiqué de presse : « En matière d'intelligence artificielle, la confiance est un impératif, et non un plus à avoir. Avec ces règles historiques, l'UE devient le fer de lance du développement de nouvelles normes mondiales pour s'assurer que l'on peut faire confiance à l'IA. » 

Si tout le monde s'accorde là-dessus, ce nouveau règlement ne solutionnera pas complètement le problème. Pour qu'une loi change les choses de façon absolue et durable, ses règles doivent être appliquées par des personnes dignes de confiance et susciter une plus grande sensibilisation aux technologies. Du côté des organisations, le directeur de la sécurité des systèmes informatiques (DSSI) doit diriger à la fois la mise en œuvre et l'éducation. Le DSSI est chargé d'évaluer les bénéfices d’une technologie par rapport aux risques de sécurité qui peuvent potentiellement compromettre la pérennité d’une organisation. Son rôle s'est élargi avec l'essor des nouvelles technologies et des réglementations qui en découlent ; il doit désormais assurer la conformité de l'entreprise à des réglementations telles que le RGPD et sensibiliser les employés aux exigences en matière de données personnelles pour garantir la sécurité de tous. 

Un statu quo technologique bouleversé

Pour répondre aux inquiétudes des consommateurs et des citoyens sur le renforcement de l'éthique et de la confiance, il devient primordial de fixer des limites pour assurer l'utilisation saine et équitable des technologies d'IA. Nous avons vraiment besoin d'une nouvelle loi européenne sur l'intelligence artificielle pour dicter les règles et obliger les entreprises à prendre en compte les implications sociétales liées à l'adoption rapide des technologies. 

Chaque technologie a un équilibre entre ses bénéfices et ses risques qu'il faut trouver. Dans le cas des applications basées sur l'IA, la surveillance traditionnelle peut par exemple se transformer en vidéo intelligente avec de nouveaux cas d'utilisation qui dépassent l’image que nous avons de la surveillance. Néanmoins, les opérateurs de caméras peuvent également exposer la vie privée de millions d’individus sous prétexte de protection. Nous devons conserver une vigilance envers les types de données collectées et veiller à leur sécurité.

La technologique doit être utilisée et innover de façon transparente. La lutte contre l’épidémie de la Covid-19 en 2020 en France, avec le lancement d'une application de traçage, illustre parfaitement cette idée. L'adoption de cette application est restée très faible face à la remise en question par les citoyens de la technologie utilisée et la manière dont ont été collectées et stockées les données. Le gouvernement français a dû repenser son approche et lancer une seconde version de l'application.

Tout usage technologique nécessite d'adopter une approche à 360 degrés. L'exploitation de l'IA exige d'examiner l'infrastructure en place, les algorithmes utilisés, la qualité des données dont nous disposons, les personnes qui y ont accès et les protocoles de sécurité. Il faut faire preuve de plus de transparence sur les données utilisées et l'éducation des personnes impactées par la technologie, que ce soit à l'aide de nouvelles méthodes de travail, de nouvelles technologies ou d'un autre type de changement, même si cela prend du temps et demande des efforts pour instaurer la confiance, seul moyen d’entreprendre une transformation numérique réussie.

Un rôle situé à la croisée des chemins

Le directeur de la sécurité des systèmes informatiques a un rôle qui évolue plus rapidement que jamais, car les réglementations changent constamment la façon dont les organisations mènent leurs activités. Si, il y a environ vingt ans, le travail consistait essentiellement à gérer les pares-feux et à sécuriser les périmètres, et qu'il n'était donc pas nécessaire d'en savoir beaucoup sur ce que l'on protégeait, si on savait quelles solutions technologiques protégeraient les systèmes d’une entreprise, le monde actuel est fondamentalement différent. Chaque partie de l'entreprise ainsi que les processus décisionnels ont été marqués par les technologies numériques, augmentant le niveau de risque et opérant une transformation sur le rôle du DSSI. Certains couples inattendus se forment, comme le DSSI et le juridique, deux fonctions qui se croisent notamment au niveau de la gouvernance des données, puisque le DSSI soutient à la fois la croissance de l'entreprise et veille à la sécurisation des données et des opérations.

Dans le futur, le DSSI sera en charge de guider son organisation dans un contexte de transformation rapide et de marché en évolution permanente. L'IA, le machine learning et l'automatisation des processus robotiques feront inévitablement partie de la recherche de nouveaux moyens performants pour guider nos décisions. C'est justement les fondations d'une économie numérique durable que la loi européenne sur l'intelligence artificielle, plaçant le DSSI au cœur de cette approche, véritable acteur de cet avenir axé sur les données de confiance.