Comment la France peut-elle jouer un rôle dans le développement de l'intelligence artificielle et ses prochaines applications ?

Rémi Trento, General Manager France chez ServiceNow analyse le rôle de la France dans le développement de l'intelligence artificielle.

En juin dernier à l’occasion de Vivatech, grand rassemblement du secteur des nouvelles technologies, Emmanuel Macron présentait ses plans pour que la France se positionne comme un centre de développement de l'IA. Cette initiative, en accord avec la règlementation européenne récemment adoptée (AI Act) appelait aussi à la mise en place de règles et de lignes directrices mondiales sur le développement de l’intelligence artificielle. Un appel auquel répond notamment l’initiative de l’ONU, dont le Secrétaire Général a récemment annoncé la création d’un comité consultatif sur l’intelligence artificielle pour « soutenir les efforts de la communauté internationale visant à gouverner l’IA ». Dans ce nouvel élan, la France est bien décidée à se positionner comme un centre mondial d'innovation en matière d’intelligence artificielle.

Cependant, la France n'est pas la seule à vouloir être pionnière dans ce domaine. L'Espagne est devenue le premier pays de l'UE à créer son propre groupe de travail chargé de réglementer l'IA afin de devenir le chef de file du secteur. De son côté, le Premier ministre britannique a récemment fait part de son ambition de faire de son pays le centre mondial de l'IA et anime ces jours-ci un premier Sommet sur l’Intelligence artificielle tenu à distance. La course est lancée et les entreprises françaises doivent saisir l'occasion dès maintenant pour rester en tête.

Trouver un équilibre entre course à l’innovation et prise en compte des risques

Si la période actuelle est propice à l'innovation, dernièrement, ce sont les promesses et opportunités de l’IA générative qui ont fait l’actualité, elle exige aussi une certaine prudence. Dans leur appel à la mise en place d’un cadre mondial, les responsables politiques français tiennent à souligner l'importance d'assurer la sécurité, de minimiser les biais et de promouvoir la transparence des systèmes d'IA, tout en encourageant la flexibilité pour favoriser la transformation. Le Parlement européen via cette fameuse loi sur l’IA prône aussi une approche fondée sur les risques pour réglementer l'IA et protéger les utilisateurs et l’ONU leur emboîte le pas.

En juillet dernier, le Tableau de bord européen de l’innovation publié par la Commission européenne classait la France parmi les « innovateurs forts » mais pointait des performances en baisse. Des conclusions qui ont probablement participé à cette volonté de stimuler les investissements et innovations liés à l’IA. Dans le même temps, un environnement

réglementaire strict signifie qu'il est plus important que jamais de le faire de manière sûre et éthique. Si le temps presse, les chefs d'entreprise doivent néanmoins faire preuve de prudence pour éviter les pièges potentiels liés à l'exploitation d'une technologie aussi novatrice.

L'importance d'une approche mesurée : l’exemple de l’IA générative

Négliger les risques dans la poursuite de l'innovation en matière d'IA n'est pas sans conséquences. Alors que l'IA générative est de plus en plus intégrée dans les processus et les services, les préoccupations relatives à la confidentialité des données et à la prise de décision sont au premier plan. La technologie exigeant que les utilisateurs saisissent des informations, toute mauvaise manipulation des données ou violation de la confidentialité pourrait non seulement ternir la réputation d'une entreprise, mais aussi tomber sous le coup de la réglementation émergente de l'UE.

L'IA générative a également des implications éthiques qu'il convient d'examiner de près. En particulier, le risque de biais algorithmique. Si les données utilisées pour former un système d'IA sont biaisées, le système prendra des décisions biaisées. Se lancer tête baissée dans l'utilisation de solutions d'IA sans réfléchir à leur adoption ne fait qu'augmenter la probabilité de non-conformité.

Il est essentiel de comprendre ces risques immédiats pour progresser à long terme. Un manque de prévoyance concernant la sécurité et l'éthique de l'IA signifie que des problèmes juridiques se poseront inévitablement. Avec autant de ressources concentrées sur la lutte réactive contre les incendies, il devient alors impossible d'aller de l'avant et de libérer tout le potentiel de l’innovation en jeu.

Stratégie et solutions en matière d'IA

Heureusement, l'approche fondée sur le risque préconisée par les décideurs politiques français et la loi européenne sur l'IA offre tout de même une base solide aux entreprises pour élaborer leurs stratégies en la matière. Les lignes directrices en matière de conformité étant établies, il existe une orientation claire pour une innovation responsable et durable en matière d'IA. La question est de savoir comment les entreprises françaises peuvent mettre cela en pratique.

D’où la nécessité de disposer de solutions prenant aussi bien en considération la sécurité, la transparence que l’éthique, afin de pouvoir favoriser une innovation responsable, le tout en maximisant l’impact que peut avoir l’automatisation. Ces solutions devront ainsi être le plus ouvertes possible, que ce soit dans leur principe d’accès, de recherche scientifique ou de gouvernance, pour garantir une transparence totale auprès des utilisateurs.

Cela dit, ce n’est pas seulement aux entreprises mais bien à l’ensemble de l’écosystème de s'unir pour ouvrir une voie nouvelle et éthique en matière d’intelligence artificielle. La France a une riche histoire d'innovation, et il n'y a pas de meilleur moment pour canaliser ce même sentiment dans cette cinquième révolution industrielle en encourageant la collaboration et le partenariat dans l'ensemble de l'industrie technologique. Dans le même temps, il ne s’agit pas de tout réinventer mais bien de prendre en compte les meilleures innovations, d’où qu’elles viennent.

Pour que les entreprises françaises puissent tirer le meilleur parti de cette opportunité, elles doivent également être en mesure d'exploiter rapidement les solutions d’intelligence artificielle, et cela passe par une approche globale et le choix des bons partenaires technologiques. Un partenariat réussi est un partenariat qui fournit la bonne technologie au bon moment. En l'occurrence, il s'agit de donner à l'ensemble de l'entreprise les moyens de tirer rapidement parti des capacités de l'IA, idéalement en combinant une solution de bout en bout avec les bons outils d'IA générative.

Exploiter le potentiel de l'IA

Les lignes directrices réglementaires approuvées par la France et ses décideurs politiques offrent une feuille de route structurée pour entrer avec confiance et responsabilité dans l'ère de l'innovation en matière d'IA. La prochaine étape consiste pour les entreprises, avec leurs partenaires et l'industrie technologique au sens large, à ouvrir la voie en adoptant la bonne approche et les bonnes solutions pour faire de la France un lieu clé d’innovation et d’application en matière d’intelligence artificielle.

Nul doute que la tenue du prochain Sommet sur la sécurité de l’intelligence artificielle en physique à Paris, annoncée par le Ministère de l’économie, des Finances et de la Souveraineté industrielle et numérique ce 1er novembre, sera un moment clé pour aborder ces sujets et réunir décideurs et entreprises sur ces questions cruciales.