L'Union européenne en passe de devenir un leader mondial dans l'IA éthique

En avril 2021, la Commission européenne a adopté son projet de réglementation sur l'intelligence artificielle ou AI Act.

C’est le premier cadre juridique au monde pour le développement et l’utilisation d’une IA digne de confiance. La définition de l’IA adoptée ici par l’UE est assez large : "un logiciel qui est développé au moyen d’une ou plusieurs des techniques et approches énumérées à l’annexe I et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit." Cette réglementation est importante, car le grand public ignore souvent la place occupée par diverses formes d’IA dans notre vie quotidienne, qu’il s’agisse de suggestions de titres à écouter sur nos applications musicales, d’assistants virtuels permettant d’organiser notre vie professionnelle ou de véhicules autonomes facilitant nos déplacements. Il est donc essentiel qu’une législation ambitieuse soit créée pour protéger à la fois les entreprises et les consommateurs.

Ce règlement prévoit des obligations de transparence pour certains systèmes d’IA, notamment ceux qui interagissent avec les personnes, ceux qui permettent la reconnaissance des émotions ou la catégorisation biométrique, ou encore ceux qui génèrent ou manipulent des contenus (pour créer des deepfakes, par exemple). Les législateurs proposent également la création d’un Comité européen de l’intelligence artificielle, la désignation d’autorités nationales compétentes, la création d’une base de données européenne des systèmes d’IA autonomes à haut risque et l’obligation pour les fournisseurs de tels systèmes de signaler les incidents ou dysfonctionnements liés à l’IA et d’enquêter à leur sujet.

L’AI Act vise ainsi à mettre en place le premier système réglementaire complet pour l’intelligence artificielle, qui s’étendra bien au-delà des frontières de l’UE et établira une norme mondiale pour une utilisation responsable de ces technologies. Le fait d’être l’un des premiers grands organismes de réglementation à élaborer ce type de législation aura un impact mondial positif pour l’UE, car la Commission européenne peut fixer unilatéralement des règles appelées à devenir des normes internationales étant donné l’attrait de son marché de 450 millions de consommateurs.

Une utilisation généralisée de l’IA

Récemment, des fiches d’évaluation (ou « scorecards ») ont été créées pour déterminer si une entreprise ou une organisation est suffisamment équipée pour utiliser les nouveaux outils d’IA. Elles adoptent souvent la forme de représentations graphiques d’un ensemble de mesures basées sur les performances et sélectionnées pour refléter les progrès et les objectifs stratégiques d’une entreprise ou d’une organisation. Ces fiches peuvent aider les entreprises à évaluer leur niveau de préparation à l’implémentation de nouveaux processus d’IA, ainsi que leur conformité à la législation européenne applicable. Elles constituent une méthode efficace et concise pour identifier les entreprises capables de déployer de nouveaux systèmes d’IA. En outre, ces fiches d’évaluation permettent aux entreprises de se doter d’un cadre pour préparer chaque étape de l’implémentation et de l’application de tout nouvel outil exploitant ces technologies, ce qui contribuera au bon déroulement de leurs activités.

Ces dernières années, les usages de l’IA ont connu une énorme expansion dans divers secteurs. Par exemple, elle est désormais largement utilisée pour innover dans le domaine des soins de santé et des sciences médicales. On l’exploite notamment pour faciliter certains diagnostics, développer de nouveaux médicaments de bout en bout, améliorer la communication entre médecins et patients, transcrire des documents médicaux et permettre certains traitements à distance. Les technologies de l’IA peuvent également être utilisées pour contribuer à la lutte contre le changement climatique en améliorant les modèles de prévision, en permettant des prises de décisions plus avisées pour la décarbonisation des industries, du BTP aux transports, et en déterminant la meilleure façon de répartir les différentes énergies renouvelables. Toutefois, l’utilisation des systèmes d’IA présente de nombreux risques liés, par exemple, à l’opacité de certains processus de décision, au potentiel de discriminations fondées sur la race ou le sexe, ainsi qu’à une utilisation à des fins frauduleuses. Il est donc essentiel que les entreprises soucieuses d’éthique limitent ces risques en alignant leurs stratégies d’IA sur la réglementation européenne.

Trois leaders européens en matière de R&D pour l’IA

L’Allemagne s’est positionnée comme un pôle international pour le développement d’une IA digne de confiance grâce à un partenariat de collaboration entre les leaders industriels et les meilleures universités de recherche situées au sud-ouest du pays. En 2016, l’initiative Cyber Valley a été lancée pour rapprocher les institutions industrielles et universitaires de la région afin d’accélérer le développement et la commercialisation des technologies applicatives d’IA dans des secteurs tels que l’automobile, la santé et la fabrication. Cette initiative a permis l’une des plus ambitieuses collaborations en Europe visant à faire progresser la recherche et le développement de l’IA, attirant des chercheurs de certains des meilleurs centres d’expertise du monde ainsi que les entreprises les plus influentes au niveau international. Parmi les principaux concurrents allemands dans le domaine de l'IA, citons Volocopter, qui développe des taxis aériens respectueux de l'environnement, Kaia Health, une entreprise de thérapeutique numérique axée sur la gestion de la douleur chronique grâce à l'IA, et Kreditech, qui permet aux personnes défavorisées d'accéder à un meilleur crédit grâce à l'apprentissage automatique. Selon PwC, le PIB allemand devrait augmenter de plus de 11% d’ici 2030 grâce aux seules solutions basées sur l’IA.

Un rapport de la National Standards Authority of Ireland datant de 2019 a révélé que près de 40% des entreprises irlandaises utilisent des technologies d’IA et que plus de 50% d’entre elles prévoient d’en déployer d’ici 2024. Les principales entreprises irlandaises basées sur l'IA sont SoapBox Labs, Nuritas et Aylien, qui utilisent les processus d'IA à des fins très diverses, notamment pour développer une technologie de reconnaissance vocale précise pour les enfants, utiliser l'extraction de données pour mettre au point de nouveaux compléments alimentaires et médicaments, et fournir des solutions d'analyse de contenu aux entreprises. L’Irlande est également classée troisième dans l’UE pour sa capacité en matière d’IA, sur des critères d’implémentation, d’innovation et d’investissement. À l’instar de l’Allemagne, l’Irlande s’impose comme un acteur de premier plan en matière d’IA éthique en finançant des projets innovants de recherche et de développement, mais aussi en renforçant les liens entre le monde universitaire et les entreprises. Par exemple, la Science Foundation Ireland (SFI) finance six centres de R&D en IA. Ces centres comprennent Adapt, le centre d’excellence de la SFI pour les contenus numériques, au Trinity College de Dublin et Insight, l’un des plus grands centres d’analyse de données en Europe, hébergé dans quatre des meilleures universités d’Irlande. En 2019, la SFI a créé un centre de formation à la recherche en intelligence artificielle pour contribuer au développement des compétences dans ce domaine avec des formations jusqu’au niveau du doctorat.

La France compte au moins 502 start-up spécialisées dans l’IA. En 2021, ces dernières ont levé 1,5 milliard d’euros, soit plus du double des 708 millions d’euros levés l’année précédente. Parmi les principales start-up françaises spécialisées dans l'IA figurent Dataiku, qui a mis au point un outil permettant aux entreprises de fournir des données et des analyses avancées ; Shift Technology, qui utilise la science des données pour détecter automatiquement les fraudeurs à l'assurance ; et Navya, qui développe des véhicules autonomes et électriques. La stratégie nationale pour l’IA de l’État français, publiée pour la première fois en 2018, a mis l’accent sur le développement d’une IA responsable grâce à un réseau d’instituts interdisciplinaires et au lancement de quatre grands projets de recherche. Ces projets visent à mener des recherches sur l’IA éthique, à proposer des formations aux étudiants et aux professionnels, à soutenir les entreprises dans leurs activités liées à l’IA et à publier des articles pour informer le grand public sur ces nouvelles technologies. Des centres de recherche d’excellence ont été créés dans plusieurs établissements français prestigieux tels que l’Université de Paris Saclay, la Sorbonne, HEC Paris et l’Institut Polytechnique de Paris. Selon le partenaire américain du Fonds French Tech Entrepreneurs, Paul Strachman, « la France est l’un des écosystèmes les plus dynamiques en matière d’intelligence artificielle. »

En encourageant les partenariats de collaboration entre les universitaires et les principaux acteurs du secteur, la recherche et le développement autour de l’IA éthique ont pu prospérer en Allemagne, en Irlande et en France ces dernières années. Ces trois nations sont désormais bien placées pour devenir des leaders européens, voire internationaux, dans la mise en œuvre d’une IA responsable. Leurs initiatives reflètent la volonté de la Commission européenne, qui a été une autorité proactive dans l’élaboration d’une réglementation indispensable pour assurer une utilisation adaptée et sûre de ces nouveaux processus par les entreprises et les consommateurs. La mise en œuvre de cette stratégie permettra de garantir que la protection du consommateur restera la priorité absolue des entreprises lors du déploiement des nouvelles technologies de l’intelligence artificielle.