L'Intelligence artificielle en Europe : vers un avenir responsable et prometteur avec l'IA Act

L'intelligence artificielle bouleverse notre monde, transformant des pans entiers de notre vie quotidienne. Ce bouleversement s'accélère depuis notamment l'arrivée d'OpenAI – ChatGPT.

Par Ahmed Fessi, Directeur de la transformation et de l'information, Expensya/Medius

L'intelligence artificielle bouleverse notre monde, transformant des pans entiers de notre vie quotidienne. Ce bouleversement s’accélère depuis notamment l’arrivée d’OpenAI – ChatGPT en octobre 2022, causant à la fois fascination et crainte, allant jusqu’à interdire ChatGPT en Italie en 2023.

Consciente du potentiel immense de cette technologie, l'Union Européenne s'engage résolument dans la voie d'une IA responsable et éthique avec l'IA Act, une proposition de loi pionnière adoptée le 13 mars 2024 par les députés européens.

L'IA Act se présente comme le premier cadre juridique complet au monde dédié à l'IA. Plusieurs autres initiatives ont été lancées, notamment l’Executive Order du président américain Biden, ou le IA Process lancé par le G7 à Hiroshima, mais l’IA Act européen reste le plus abouti à ce jour.

L’IA acte adopte une approche par les risques. Sa catégorisation des systèmes d'IA selon leur niveau de risque, permet une approche réglementaire nuancée et adaptée. Cette catégorisation s'inscrit dans les principes de l'approche européenne pour une utilisation d’une IA transparente, garantissant ainsi un développement responsable et éthique de cette technologie.

L'IA Act : une approche graduée pour contrer les risques de l'IA

Certaines applications de l'IA, jugées trop dangereuses, seront purement et simplement interdites. C'est le cas de l'IA manipulatrice ciblant les populations vulnérables ou de l'IA de notation sociale, qui enfreindrait les droits fondamentaux et la dignité humaine. Des exceptions existent, comme l'utilisation de l'identification biométrique à distance pour des enquêtes criminelles graves, sous contrôle judiciaire strict.

L'IA à fort impact sur la sécurité ou les droits fondamentaux est soumise à des exigences strictes. Divisée en deux sous-groupes (produits soumis aux lois de sécurité et secteurs spécifiques), elle est soumise à des évaluations avant et pendant son cycle de vie. Les plateformes d'IA générative, comme ChatGPT d’OpenAI ou Gemini de Google, entrent dans cette catégorie et doivent respecter des normes de transparence, garantir un contenu non-illégal et informer sur les données utilisées pour leur apprentissage, conformément aux exigences de l'IA Act.

Les systèmes d'IA à risque limité font l'objet d'exigences de transparence minimales. Les utilisateurs doivent être informés de leurs interactions avec l'IA, notamment lorsqu'il s'agit de contenu généré ou manipulé, comme les deepfakes.

Le Parlement européen : une vision pour une IA éthique et humaine

Le Parlement européen insiste sur une IA innovante, éthique et responsable, en accord avec les valeurs fondamentales de l'Union européenne. L'accent est mis sur la sécurité, la transparence, la traçabilité, la non-discrimination, l'équité et l'impact environnemental des systèmes d'IA. La supervision humaine est essentielle pour prévenir les dérives et garantir le respect des droits et libertés individuels.

Un des risques de l’IA Act était de brider l’innovation et d’avoir une approche purement juridique, qui pourrait freiner les initiatives dans l’UE, voire créer un environnement non-compétitif par rapport à d’autres régions dans le monde moins ou pas régulées. Ce risque semble avoir été bien maîtrisé avec un IA Act protégeant les droits fondamentaux, sans pour autant impacter le potentiel de l’innovation dans l’UE.

L'IA Act représente un pas important vers un avenir européen de l'IA responsable et prometteur. Sa mise en œuvre permettra de garantir que l'IA soit une force positive tout en stimulant l'innovation et la croissance économique.

L'IA Act : une feuille de route pour l'avenir de l'IA en Europe

L'IA Act n'est pas une simple loi, mais une véritable feuille de route pour l'avenir de l'IA en Europe. Son adoption par le Parlement européen représente une étape historique vers une IA éthique et responsable, respectueuse des droits fondamentaux et de l'intérêt public.

L'approche équilibrée de l'IA Act reconnaît le potentiel transformateur de l'IA pour la société et l'économie européenne, tout en garantissant que cette technologie soit utilisée de manière responsable et contrôlée.

En cours d'examen par les instances européennes, l'IA Act est susceptible de devenir une référence mondiale en matière de réglementation de l'IA. Son adoption finale et sa mise en œuvre effective ouvriront la voie à un avenir européen de l'IA où l'innovation et la responsabilité se conjuguent pour le bien commun.

Par ailleurs, il serait intéressant d’évaluer le coût pour les entreprises pour gérer l’aspect conformité. Pour faire un parallèle, l’entrée en vigueur du RGPD (Règlement Général sur la Protection des Données), avait impliqué pour les entreprises une mise en conformité parfois très coûteuse, même si nécessaire, estimé à près de 1 milliards d’€ par an pour les entreprises de l’Hexagone selon une étude IDC/Syntec. Il serait opportun de voir dans les faits, si l’IA Act pourrait permettre une utilisation conforme mais sans un surcoût démesuré notamment pour les Startups.

Il est encore tôt pour comparer l'approche européenne à celle d'autres pays, comme les États-Unis, mais l'Europe se positionne clairement comme un pionnier dans le domaine, avec un juste équilibre entre innovation et sécurité. Le dialogue avec les États membres sera crucial pour finaliser la loi et déterminer son impact concret, en tenant compte des besoins et des réalités du terrain.