Réguler ou innover ? Aligner sa gouvernance pour propulser son entreprise à la puissance de l'IA
La gouvernance de l'intelligence artificielle: un enjeu stratégique pour redessiner les dynamiques concurrentielles des entreprises.
Lorsqu’il s’agit de réguler l’usage de l’intelligence artificielle dans les entreprises, l’Union européenne et le Royaume-Uni adoptent deux approches diamétralement opposées. L’UE a agi rapidement pour mettre en place l’IA Act, qui met l’accent sur la gestion des risques, les normes éthiques et la responsabilité.
De l’autre côté de la Manche, le Royaume-Uni opte pour une approche plus « laissez-faire », misant sur une stratégie souple qui fait le pari que l’innovation prospère mieux lorsqu’elle n’est pas entravée par des réglementations strictes.
D’après le baromètre mensuel Expleo AI Pulse* réalisé auprès des dirigeants français, près d’un dirigeant sur deux (46 %) pense que la législation de l’Union Européenne sur l’IA favorisera une utilisation éthique de l’IA dans les entreprises. Cependant, 26 % des dirigeants interrogés indiquent ne pas encore avoir connaissance de ces réglementations.
Pour les entreprises, cette divergence réglementaire voire cette méconnaissance ne se résume pas juste à une question de conformité. C’est un enjeu stratégique qui pourrait redessiner les dynamiques concurrentielles pour les entreprises opérant sur les marchés internationaux.
Union européenne : un cadre basé sur la gestion des risques
L’IA Act de l’Union européenne introduit un cadre structuré basé sur les risques. Il classe les systèmes d’IA selon le niveau de danger qu’ils présentent, allant de minimal à inacceptable, et définit les exigences de conformité correspondantes. Ce dispositif offre des lignes directrices claires aux entreprises, notamment dans les secteurs fortement réglementés comme l’aéronautique, l’automobile, l’énergie et les services publics.
Dans le secteur financier, les implications sont particulièrement marquées. Les systèmes d’IA utilisés pour le scoring de crédit, la détection de fraude, le trading algorithmique ou la vérification client sont considérés comme à haut risque selon le texte. Les institutions financières doivent donc effectuer des évaluations rigoureuses, maintenir une documentation technique, mettre en œuvre des dispositifs de gestion des risques et garantir une supervision humaine pour opérer dans l’UE.
En outre, les fournisseurs comme les utilisateurs de ces systèmes ont des responsabilités spécifiques en matière de conformité, notamment en cas d’utilisation ou de modification significative de solutions développées par des tiers.
Si le cadre européen apporte une certaine clarté, il ajoute aussi de la complexité. Respecter ces exigences demande du temps, des efforts et des ressources, ce qui représente un défi pour les PME, les start-ups ou encore les grands groupes engagés dans des programmes de transformation numérique. À terme, cela pourrait ralentir le déploiement de nouvelles technologies et engendrer un retard compétitif face à des acteurs mondiaux plus agiles et non soumis à ces contraintes réglementaires.
Le modèle britannique : sur le mode de l’innovation agile
À l’inverse, le Royaume-Uni défend une gouvernance flexible qui vise à stimuler l’innovation. L’objectif est de permettre aux entreprises d’adopter rapidement les technologies tout en promouvant un développement responsable.
Par exemple, les lignes directrices de l’Ofgem (régulateur de l’énergie) en matière d’IA privilégient la protection des consommateurs et la résilience du système, sans imposer de normes strictes. Cette approche reflète la stratégie globale du Royaume-Uni : encourager les bonnes pratiques volontaires plutôt que d’imposer des obligations contraignantes.
Cependant, ce modèle présente aussi des risques. Des règles vagues peuvent entraîner de l’incertitude, en particulier pour les entreprises opérant dans plusieurs secteurs ou juridictions. Ce flou peut exposer les entreprises à des dégâts réputationnels ou à des sanctions réglementaires si leurs systèmes sont jugés non éthiques ou dangereux.
Le Royaume-Uni mise donc fortement sur l’autorégulation, ce qui suppose un niveau élevé de confiance et de coopération entre les entreprises, les régulateurs et le public pour bâtir un écosystème de l’IA sûr et digne de confiance.
Gérer la complexité opérationnelle
Faire face à ces environnements réglementaires divergents dépasse le simple enjeu de conformité. Pour les entreprises présentes à la fois au Royaume-Uni et dans l’UE, ces différences les obligent à adapter en permanence leur développement produit, leur suivi juridique et leurs stratégies de conformité.
Prenons l’exemple des start-ups : elles peuvent plus facilement lancer des services basés sur l’IA au Royaume-Uni grâce à une réglementation allégée, mais rencontrent des délais et des ajustements importants pour les déployer dans l’environnement réglementaire rigide de l’UE.
La réglementation influence aussi l’image de marque. Le respect strict des règles européennes peut renforcer la réputation d’une entreprise en matière d’intégrité et de transparence, crucial dans des domaines comme la finance ou la défense. À l’inverse, l’approche plus souple du Royaume-Uni permet de cultiver une image d’innovateur audacieux, ce qui séduit investisseurs et talents.
Une nouvelle façon de penser la stratégie d’entreprise voit ainsi le jour. Les entreprises gagnantes seront celles qui intégreront la maîtrise réglementaire à tous les niveaux, des décisions du comité exécutif sur la gestion des risques, jusqu’à la manière dont les ingénieurs conçoivent les modèles d’IA pour répondre aux exigences de conformité dès la phase de développement et donner ainsi le potentiel démultiplicateur d’une entreprise à la puissance de l’IA.
Vers des standards globaux
Un compromis entre le modèle structuré de l’UE et celui, plus flexible, du Royaume-Uni pourrait ouvrir la voie à un cadre mondial de gouvernance de l’IA, avec des normes partagées facilitant la collaboration, l’industrialisation et l’innovation à l’échelle internationale.
Concevoir les systèmes dès le départ avec des exigences communes permettrait de rationaliser les développements et de limiter les correctifs a posteriori. Pour les régulateurs, des standards partagés offriraient une surveillance plus claire, sans redondance.
Cependant, établir des normes acceptées à l’échelle mondiale nécessitera une coopération durable entre les décideurs politiques, les spécialistes en technologie et les dirigeants d’entreprise, ce qui sera une tâche complexe. Tout aussi difficile, mais très bénéfique, serait la mise en place d’un référentiel juridique commun qui réduirait les frictions, diffuserait les meilleures pratiques et limiterait les conflits entre législations nationales.
Construire des cadres adaptés à l’avenir
La résilience et l’efficacité des régulations dépendent de leur capacité d’adaptation, pour anticiper les défis émergents. L’UE comme le Royaume-Uni doivent rester flexibles et réactifs, en évaluant et révisant régulièrement leurs réglementations à la lumière des avancées technologiques et des attentes sociétales.
Pour cela, les données doivent être au cœur des processus réglementaires. Les indicateurs de performance, les retours d’expérience et les tendances d’usage peuvent fournir aux régulateurs les informations nécessaires pour ajuster les règles sans excès.
Intégrer les données dans l’évaluation des cadres permet de détecter les risques émergents, d’en mesurer l’impact, et d’ajuster plus finement les dispositifs.
Enfin, mettre l’accent sur la concertation avec les parties prenantes et sur la transparence des processus de décision contribuera à renforcer la confiance, la conformité, et l’intégration réussie de l’IA dans la société. Appuyée sur des données fiables, cette concertation permettrait aux régulations de refléter non seulement les avis d’experts, mais aussi les comportements réels, les interactions système et les résultats sociétaux.