EU AI Act : des données prêtes à entrer dans le cadre ?

L'IA et les outils d'IA générative ont profondément transformé le paysage économique, incitant les organisations à explorer rapidement leurs applications stratégiques et opérationnelles.

Une étude récente de Bpifrance révèle que 26 % des dirigeants de PME et d'ETI françaises utilisent déjà l'IA générative. De plus, selon le dernier rapport de McKinsey sur l'état de l'IA, 78 % des entreprises intègrent l'IA dans plusieurs de leurs fonctions métiers.

Avec une telle expansion, les instances dirigeantes agissent rapidement pour s'assurer que l'IA est déployée de manière responsable, sûre et éthique. Par exemple, la loi européenne sur l'IA (EU AI Act) restreint les pratiques telles que la reconnaissance faciale et rend obligatoire la maîtrise de l’IA. Cela permet aux organisations de comprendre comment leurs outils génèrent des informations avant d'agir en conséquence. Ces politiques visent à réduire le risque d'utilisation abusive de l'IA en raison d'une formation ou d’une surveillance insuffisante.

En juillet 2025, l'UE a publié la version finale de son code de bonnes pratiques sur l'IA à usage général (IAG), qui définit des lignes directrices volontaires sur la transparence, la sécurité et le droit d'auteur pour les modèles de fondation. Bien que ces normes ne soient pas obligatoires, les entreprises qui se retirent peuvent faire l'objet d'un examen plus approfondi ou d'une application plus stricte. Parallèlement, de nouvelles phases de la loi continuent d'entrer en vigueur, la prochaine date limite de mise en conformité étant le 2 août.

Cela soulève deux questions essentielles pour les organisations : comment peuvent-elles utiliser le pouvoir de transformation de l'IA tout en gardant une longueur d'avance sur les nouvelles réglementations ? Et comment celles-ci façonneront-elles la voie à suivre pour l'IA d'entreprise ?

Comment les nouvelles réglementations remodèlent l'adoption de l'IA

L’EU AI Act pousse les organisations à relever les défis à long terme en matière de gestion des données afin de réduire les biais de l'IA et d'assurer la conformité. Les systèmes d'IA soumis à un « risque inacceptable » c’est-à-dire ceux qui constituent une menace claire pour les droits, la sécurité ou les libertés individuels, sont déjà restreints en vertu de la loi.

Entre-temps, des obligations de conformité plus larges pour les systèmes d'IA à usage général entreront en vigueur en août de cette année. Des obligations plus strictes pour les modèles de risque systémique, y compris ceux développés par les principaux fournisseurs, suivront en août 2026. À l'approche de ces échéances, les entreprises doivent agir rapidement pour se préparer à l'IA, en commençant par des données prêtes pour l'IA. Cela signifie investir dans des bases de données fiables qui garantissent la traçabilité, la précision et la conformité à grande échelle.

Cette étape est impérative dans des secteurs tels que les services financiers, où l'IA est utilisée dans des décisions à enjeux élevés comme la détection des fraudes et la notation de crédit. Les institutions concernées doivent montrer que leurs modèles sont formés sur des données représentatives et de haute qualité, et que les résultats sont activement surveillés pour soutenir des décisions justes et fiables. La réglementation accélère alors la transition vers des systèmes d'IA fiables et explicables.

L'intégrité des données comme avantage stratégique

Le respect des exigences de l’EU AI Act exige plus qu'une conformité superficielle. Les entreprises doivent éliminer les silos de données, en particulier lorsque les informations critiques sont verrouillées dans des systèmes hérités ou mainframe. L'intégration de toutes les données pertinentes dans les environnements cloud, sur site et hybrides, ainsi que dans diverses fonctions métiers, est essentielle pour améliorer la fiabilité des résultats de l'IA et réduire les biais.

Au-delà de l'intégration, les organisations doivent prioriser la qualité, la gouvernance et l'observabilité des données pour s'assurer que les informations utilisées dans les modèles d'IA sont précises, traçables et surveillées en permanence. Des recherches récentes montrent que 62 % des entreprises citent la gouvernance des données comme le plus grand défi pour la réussite de l'IA, tandis que 71 % prévoient d'augmenter leurs investissements dans les programmes de gouvernance.

Le manque d'intelligibilité et de transparence des modèles d'IA reste une préoccupation importante, soulevant des questions sur les préjugés, l'éthique, la responsabilité et l'équité. À mesure que les entreprises mettent en œuvre l'IA de manière raisonnable, des données robustes et une gouvernance de l'IA joueront un rôle central pour combler le fossé entre les exigences réglementaires et l'innovation responsable.

De plus, l'intégration de jeux de données tiers fiables, telles que les données démographiques, les informations géospatiales et les facteurs de risque environnementaux, peut contribuer à accroître la précision des résultats de l'IA et à renforcer l'équité avec un contexte supplémentaire. Cela est crucial compte tenu de l'orientation de l'UE vers une protection plus forte du droit d'auteur et un filigrane obligatoire pour le contenu généré par l'IA.

Une approche plus délibérée de l'IA

Aussi, l'enthousiasme initial autour de l'expérimentation de l'IA cède maintenant la place à une planification plus réfléchie à l'échelle de l'entreprise. À l'heure actuelle, seules 12 % des organisations déclarent disposer de données prêtes pour l'IA. En l'absence d’informations précises, cohérentes et contextualisées, les initiatives d'IA ont peu de chances d'obtenir des résultats mesurables. La mauvaise qualité des données et la gouvernance limitent les performances et introduisent des risques, des biais et de l'opacité dans les décisions métiers qui affectent les clients, les opérations et la réputation.

À mesure que les systèmes d'IA deviennent plus complexes et agentifs, capables de raisonner, d'agir et même de s'adapter en temps réel, la demande d'un contexte et d'une gouvernance fiables devient encore plus critique. Ces systèmes ne peuvent pas fonctionner de manière responsable sans une base solide d'intégrité des données qui favorise la transparence, la traçabilité et la confiance.

En somme, l’EU AI Act signale un passage d'une conformité réactive à une préparation proactive à l'IA.  À mesure que l'adoption de nouvelles technologies se développe, il sera essentiel d'alimenter les initiatives d'IA avec des données intégrées, de haute qualité et contextualisées pour garantir le succès à long terme d'une innovation responsable et évolutive dans ce domaine en plein essor.