La déclaration de Bletchley est-elle réellement garante du développement responsable de l'IA ?

Développement de l'intelligence Artificielle : une étape est franchie par l'adoption de la déclaration de Bletchley visant à stimuler les efforts mondiaux de coopération en matière de sécurité de l'IA.

Des représentants des États-Unis, de l'Union européenne, de l'Afrique, de l'Asie dont la Chine, ont convenu lors du 1er « AI Safety Summit 2023 », sommet sur la sécurité de l'IA, de travailler ensemble pour contenir les risques potentiellement « catastrophiques » issus du progrès de l'intelligence artificielle. Des risques que certains scientifiques qualifient de danger pour l'existence même de l'humanité quand d’autres n’y voient que progrès et développement !

Tout un symbole : C’est près de Londres au « Parc de Bletchley », un lieu emblématique, une ancienne base d'espionnage où des esprits brillants comme Alan Turing et les décrypteurs ont joué un rôle crucial pendant la Seconde Guerre mondiale, que la Déclaration dite de Bletchley a été élaborée. Cette déclaration a mis en place les premiers jalons d’une collaboration entre les nations pour établir un cadre garantissant que les technologies d'IA soient développées et utilisées de manière responsable et sûre dans le monde entier.

La déclaration de Bletchley[1] est concomitante du décret de l’administration Biden sur une IA sûre, sécurisée et digne de confiance[2]. Ce décret répond également à de nombreuses préoccupations similaires concernant les risques et les dangers du développement non réglementé de l’IA (intentionnel et non intentionnel), appelant à une meilleure compréhension des « risques de l’IA » grâce à une collaboration plus étroite entre l’industrie, le gouvernement et le monde universitaire.

Cette coopération internationale a pour but de relever les défis mais aussi tirer profit des opportunités que présente l’IA à l’ère numérique d’aujourd’hui. Elle souligne l'importance de la transparence, de la responsabilité des acteurs et de l'équité dans le développement de l'IA afin que les systèmes d’IA soient conçus de manière à respecter les droits de l’homme, la vie privée et la diversité, tout en garantissant qu’ils soient explicables et compréhensibles par les utilisateurs.

Les soutiens et les détracteurs de la déclaration de Bletchley vont se multiplier dans les prochaines mois à mesure que seront analysées e comprises les évolutions à mettre en œuvre pour adopter des normes universelles autour de la sécurité de l’IA et leurs implications.

L’un des aspects clés de la déclaration de Bletchley est l’engagement à éviter d’utiliser l’IA à des fins nuisibles, incluant l’interdiction de développement de systèmes d’IA qui pourraient être utilisés à des fins de surveillance, de discrimination ou de manipulation.

Réguler avant d’innover ou innover puis réguler, tel est le choix cornélien qui se pose avec l’IA.

La Déclaration de « Bletchley » en 3 questions.

  • Question 1 : Qu'est-ce que la Déclaration de Bletchley ?

Réponse : La Déclaration de Bletchley est une initiative internationale sur la sécurité de l’IA. Les signataires se sont engagés, sans dimension contraignante, en faveur d’une IA « conçue, développée, déployée et utilisée de manière sûre, centrée sur l’humain, digne de confiance et responsable ».

  • Question 2 : Pourquoi la Déclaration de Bletchley est-elle importante ?

R : En fixant des limites éthiques, la déclaration vise à prévenir l’utilisation abusive de la technologie de l’IA et à protéger les individus contre tout préjudice potentiel. Elle promeut la transparence, la responsabilité et l’équité dans le développement de l’IA, en garantissant que les technologies de l’IA profitent à la société et respectent les droits de l’homme.

  • Question 3 : Quels sont les principes clés de la Déclaration de Bletchley ?

R : La déclaration reconnaît les menaces sérieuses posées par l’IA de pointe dans des domaines tels que la cybersécurité et la désinformation. Elle édicte des principes qui comprennent la gouvernance, la sécurité, la transparence, l'équité, le respect, de la vie privée et de la diversité. Ils visent à empêcher le développement et l’utilisation de systèmes d’IA à des fins préjudiciables telles que la surveillance, la discrimination et la manipulation.

Crédit image de Pixabay - Généré par une intelligence artificielle ? 

Les thèmes majeurs de la déclaration de « Bletchley »

La déclaration de Bletchley représente une vision commune des 54 pays signataires visant à favoriser les considérations de sécurité et d'éthique dans le développement et le déploiement de l'IA, en travaillant ensemble à établir une approche universelle en matière de surveillance.

En plus des chefs d’États, les dirigeants des Big tech telles que OpenAI, Anthropic, Google DeepMind, Microsoft, xAI ou Meta ont été associés aux travaux de réflexions sur le nécessité de la régulation et la surveillance.

L'accent est mis sur l'identification des sujets d'intérêt commun, sur l'acquisition de connaissances scientifiques et sur l'élaboration de politiques transnationales en vue d’une compréhension partagée des opportunités et des risques de l’IA de pointe.... Les principes fondamentaux de la déclaration sont :

  •  Création d’un organe consultatif des Nations unies sur l’IA : Cette création entre dans le cadre des efforts déployés par les Nations Unies pour résoudre les problèmes de gouvernance internationale de l’intelligence artificielle. Cette initiative se veut inclusive à l’échelle mondiale, en s’appuyant sur le pouvoir fédérateur unique de l’ONU face aux défis critiques pour bâtir un consensus scientifique mondial.
  •  Normes de sécurité « universelles » : L’objectif est d’établir des normes de sécurité élevées dans la conception, le développement et le déploiement des systèmes d'IA ainsi qu’un dispositif de mesure et de contrôle. L’engagement commun est d’adopter une approche « Common Security Rules » afin de réduire les risques associés à développement de IA notamment en matière de cybersécurité.
  •  Éthique « by design » : C’est la reconnaissance de la nécessité de traiter les questions liées à la protection des droits de l’homme, à la transparence, à l’explicabilité, à l’équité, à la responsabilité, à la réglementation et à la supervision humaine appropriée aux exigences d’une IA éthique. Une IA qui met les garde-fous pour réduire les biais, qui protège la vie privée et les données personnelles en limitant les risques de manipulation des contenus et des deepfake notamment.
  •  Transparence et responsabilité : La déclaration encourage les différents acteurs en tech à renforcer la confiance et la compréhension du public des développements en IA en faisant preuve de transparence. Il est recommandé aux acteurs qui développent des technologies d'avant-garde en matière d'IA de rendre des comptes sur leurs projets en termes de contrôle, de surveillance et d'atténuation des capacités potentiellement nuisibles de l’IA.
  •  Coopération internationale et partage des connaissances : L’accent est fortement mis sur la promotion de la coopération internationale avec un plan d'action pour une collaboration globale s'assurant que l'IA soit conçue et mise en œuvre de façon éthique et sûre. L'encouragement du partage des connaissances et de la recherche collaborative entre les nations est de nature à renforcer la culture d’apprentissage partagé et d’amélioration continue des pratiques de sécurité autour des usages de l’IA.

Un accord sur les généralités, mais des divergences profondes persistent.

Début 2023 lorsque ChatGPT et les IA génératrices de contenu ont fait irruption dans l’espace public, une première lettre ouverte a été cosignée par des personnalités de la tech et des milliers de signataires appelant les laboratoires d'IA à faire une pause dans le développement de leur technologie[3] et invoquant des « risques profonds ». S’en suit une autre lettre ouverte, à la veille du sommet de Bletchley, le 31 octobre 2023, dans laquelle plusieurs sommités de l’IA réclament l’élaboration d’un traité international sur l’IA afin d’en réduire les risques qui pèsent sur l’humanité.

En effet, l'inquiétude est grandissante et a même atteint le milieu du cinéma américain avec la recrudescence des cas d’usage de l'intelligence artificielle dans ce domaine comme la modélisation des images des cascadeurs en 3D ou l'arrière-plan des scènes de combat par exemple. Les acteurs, les scénaristes, les réalisateurs et d’autres métiers du 7ème art ont fait grève plusieurs mois afin de réclamer une meilleure réglementation de ces IA.

Même avec ce 1er round de Bletchley conclu par de belles intentions et couronné par cette déclaration, plusieurs questions et zones grises restent encore ouvertes et sans réponse précise. En effet, certains se demandent déjà si ces dispositifs de surveillance et de contrôle ne vont-ils pas entraver l’innovation en IA des laboratoires publics ou privés et même des géants de la Tech. L’encadrement de l’IA ne se résume pas effectivement à la seule réglementation et aux décisions politiques.

La déclaration de Bletchley cache aux yeux du grand public les divergences entre les États et des stratégies de régulation diamétralement opposées dans ce domaine. Si l’UE et les États-Unis ont choisi la voix de la régulation, ce n’est pas la cas du Royaume-Uni ou de la Chine.

Se pose alors la question centrale de la capacité d’autorégulation de ces acteurs de l’IA, surtout lorsque les États sont parties prenantes des entreprises investissant massivement dans cette technologie. La Chine est notoirement connue pour ses utilisations controversées de l’IA, comme la notation sociale[4], la surveillance des opposants ou l’intégration de l’IA dans des armements.

A date, on ne sait pas exactement comment les accords seront mis en œuvre. Néanmoins il faut reconnaitre que l’IA Act européen[5] est encore plus riche que cette déclaration, car au-delà de la régulation de l’IA de pointe, le texte du Parlement européen prévoit l’interdiction des “usages intrusifs et discriminatoires” de l'intelligence artificielle comme les systèmes d’identification biométrique en temps réel dans les lieux publics. Mais ne nous trompons pas de débat : Une guerre économique et géostratégique qui se déroule en coulisses. L’IA Act ou les intentions de Bletchley ne doivent pas devenir des obstacles pour de jeunes ou de nouveaux acteurs au profit des géants tech déjà bien installés aux États-Unis ou en Chine qui s'affrontent dans une guerre technologique sans merci.
Références :

[1] https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023

[2] https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/

[3] https://futureoflife.org/open-letter/pause-giant-ai-experiments/

[4] Un système basé sur l’IA qui attribue une note aux citoyens chinois.  Il repose sur la collecte de donnée sur les personnes et les entreprises, de leur comportement dans les transports en commun à leur « moralité » sur les réseaux sociaux, en passant par leur respect du code de la route. In fine une note agrégée est donnée et qui permet d’identifier la « qualité » du citoyen et d’en déduire le périmètre de ses droits.

[5] https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf