Quand la surveillance devient intelligente, jusqu’où peut-elle aller ?

L’Intelligence Artificielle s’immisce dans les moindres recoins de nos vies. Elle écrit pour nous, prend en note ce que nous lui dictons, répond à des questions simples via les chatbots… Elle nous propose des films et séries qui sont susceptibles de nous plaire, elle peut même poser un diagnostic de santé fiable.

L’Intelligence Artificielle entoure notre consommation, les entreprises s’en équipent pour réduire leurs délais de production et améliorer la satisfaction du client final. Cependant, on oublie souvent que l’Intelligence Artificielle développée à bon escient peut aussi sauver des vies, régler des conflits et bénéficier à l’être humain. Il s’agit seulement de la programmer ainsi. Comment est-ce que les forces de l’ordre utilisent l’IA ?

·  Quels usages sont faits de l’Intelligence Artificielle dans la sécurité ?

Une des grandes innovations est la reconnaissance faciale, qui offre, entre autres, une nouvelle manière de déverrouiller son téléphone. Et c’est loin d’être la seule utilisation possible ! Aujourd’hui, des caméras sont capables d’identifier un individu en analysant son visage. Ces données biométriques sont souvent récoltées sans l’accord des individus, la plupart ne sont même pas au courant ! Ce qui représente un risque évident d’atteinte à l’anonymat dans l’espace public. L’IA qui les récolte et les stocke, apprend énormément de ces données qu’elle compile pour identifier une émotion ou un comportement.

Pourquoi est-ce un problème ? Les données biométriques sont des données « sensibles » au sens de la législation en matière de protection des données, au même titre que des données de santé ou des opinions politiques. Les données biométriques sont présentes dans cette catégorie depuis peu, la RGPD et la directive « police justice » ont modifié leur statut pour attirer l’attention sur les risques que soulèvent leur traitement.

Cet usage est d’ailleurs déjà appliqué en France. Loin d’une reconnaissance faciale pour payer son ticket de métro comme c’est le cas dans certaines villes de Chine, le « Big Data de la tranquillité publique » de Marseille reconnait les comportements des foules et des groupes d’individus pour optimiser les interventions des forces de l’ordre et leur permettre d’agir rapidement et efficacement. Cet outil ne détecte pas les données biométriques des visages, il détecte les mouvements de foule et les situations à risque, pour prévenir les forces de l’ordre avant que les choses ne dégénèrent.

Il est alors possible d’identifier les comportements à risque. Ainsi, la surveillance devient préventive : on observe tel comportement, on en déduit telle conclusion et on réagit de telle manière. Certains développent des détecteurs de mensonges ou autres outils qui rappellent le fameux Minority Report de 2002. Cependant, cette intelligence prédictive ne tient compte que de comportements passés, ce qui signifie qu’elles ne prennent pas en compte certaines variables, notamment les variables humaines. Ces outils sont certes nouveaux et très intéressants, mais ils ne sont pas suffisamment encadrés pour être fiables.

    ·      Quels problèmes ?  

Au-delà des problèmes liés à la phase d’expérimentation, l’utilisation de l’Intelligence Artificielle n’est pas sans risque. Qu’elle détecte ou non un problème est une chose, qu’elle impute une action à un type d’individus en est une autre. La discrimination raciale est un problème de société touchant chaque pays. Dernier exemple en date : une Intelligence Artificielle Google intervertit le visuel et le titre de deux films : Black Panther et La Planète des Singes. On pense également à la photo de deux Afro-Américains, définis comme « gorilles » par le logiciel Google Photos. Si ces exemples sont apparentés à un simple bug informatique, l’Intelligence Artificielle utilisée par les forces de l’ordre ne sont pas à l’abri de ce genre « d’erreurs », ce qui serait alors beaucoup plus grave.

 

Mais pourquoi l’Intelligence Artificielle peut-elle sembler être discriminante ?

Comme tout traitement biométrique, la reconnaissance faciale repose sur des estimations statistiques de correspondance entre les éléments comparés. D’abord parce qu’elle apprend grâce au Machine Learning. Elle se nourrit donc de données existantes, qui ont été récoltées par des êtres humains avec leurs propres préjugés. Compiler ces données donne à l’IA des préjugés à son tour puisqu’elle apprend par mimétisme, par effet miroir. La plupart des IA sont alimentées par les réseaux sociaux afin d’en apprendre beaucoup et rapidement. Ces réseaux sont loin d’être connus pour leur débats constructifs et respectueux, au contraire ! La violence présente sur les réseaux sociaux rivalise avec la violence physique ou verbale à laquelle nous faisons face chaque jour. Au-delà du machine learning, les chercheurs et ingénieurs qui créent les IA peuvent leur insuffler leurs préjugés sans même le vouloir.

Pour toutes ces raisons, on ne peut -pour le moment- faire confiance à cette Intelligence Artificielle, encore trop peu développée. Cette dernière est trop influençable, et les résultats de son usage peuvent être catastrophiques. Il est intéressant de noter d’ailleurs qu’il n’existe pas de consensus au sein de la communauté scientifique sur l’efficacité de ces outils !

    ·      Et plus tard ?

A force de se demander si l’on peut ou non, on finit par oublier de se demander si l’on doit. Actuellement les entreprises de surveillance vont toujours plus loin : on a pu voir les différentes applications plus tôt. Peut-être est-il temps de déposer les caméras pour se concentrer sur l’éthique qui entoure le sujet ? Il est nécessaire, en France mais également à travers l’Europe, et plus largement dans le monde, de lier éthique et surveillance vidéo. Le respect des libertés individuelles et leur protection devrait être la mission première des législations encadrant ces technologies. Il est important de se rendre compte que l’on passe d’une surveillance ciblée de certains individus à la possibilité d’une surveillance de tous, pour en identifier certains.

Le 15 novembre 2019, la CNIL a publié un rapport sur la reconnaissance faciale très instructif et qui appelle à la prudence.

Dans The End Of Killing, Rick Smith aborde ces problématiques éthiques qui sont trop souvent tues sous couvert d’avancées technologiques, et bien d’autres encore ! Il y détaille également son engagement pour éviter les conflits de toutes tailles afin de sauver des vies.