RGPD, éthique et transparence: les nouveaux ingrédients de la stratégie analytique

La transparence semble être une notion relative dont les contours évoluent au gré du débat sociétal sur l’exploitation des données.

               En mai dernier, le règlement général sur la protection des données à caractère personnel (RGPD) a introduit l’obligation de développer des traitements dits transparents. En matière de traitements et d’algorithmes, cette notion est associée au concept d’explicabilité. Cette notion fondamentale consiste à être capable de retracer le processus de décision du traitement automatisé depuis les données d’entrée jusqu’au résultat de sortie. Il s’agit d’une volonté du régulateur de maintenir son pouvoir de contrôle dans une économie de plus en plus algorithmique et ainsi prévenir une dérive vers une société Black Box telle que décrite dans l’ouvrage de Frank Pasquale. Le règlement préconise, sauf cas particulier, d’éviter l’usage des algorithmes opaques. En l’espèce, la contrainte juridique qui vise à rendre déchiffrables les décisions prises de façon automatique n’est qu’une vision fonctionnelle de la transparence des traitements. La transparence revêt d’autres aspects, sur lesquels le règlement n’apporte pas encore de cadre, comme par exemple la transparence dans les choix opérés par les data scientists en matière de transformation de données. La notion d’explicabilité ne semble donc pas suffisante pour mesurer les risques générés par un algorithme. Bien d’autres facteurs, sont à considérer.

Quelle règle respecter en matière de qualité et de représentativité des données? Comment s’assurer de la justesse dans le choix du critère de performance statistique? Quel niveau d’engagement éthique imposer aux data scientists? Comment identifier et limiter les biais discriminatoires? Ces questions soulignent le besoin de compléter le cadre juridique par d’autres normes en matière de responsabilité, d’éthique, de performance, de gestion du risque et ce afin d’éviter toute déviance qui porterait atteinte aux droits et libertés fondamentales.

               Il en ressort que le RGPD ne doit pas à lui seul délimiter les frontières à respecter en matière d’analyse de données. 
Quelle est la place du RGPD dans la stratégie analytique globale de l’entreprise ? Quelle est l’influence du règlement dans l’acculturation à la donnée et à l’IA ? En matière de management et de maturité analytique, le RGPD a l’avantage majeur d’avoir accéléré l’acculturation des équipes à la gouvernance de la donnée. Les perspectives de sanctions financières et le risque de réputation ont été des catalyseurs aussi bien sur la mise en conformité que sur la stratégie analytique de l’entreprise. De nouveaux rôles sont apparus à l’instar du Data Protection Officer, ou encore du Chief Algorithms Officer. Il s’agit généralement d'opérationnels ayant une expérience significative dans l’entreprise et cumulant une expertise particulière. Bien qu’un équilibre reste encore à trouver, l’entreprise se voit dotée d’un véritable organigramme en matière d’exploitation et de protection de la donnée, par conséquent une impulsion permettant la mise en place d’une stratégie analytique cohérente, transversale et ambitieuse. En outre, sous l’effet du RGPD et de nouvelles problématiques émergentes, les équipes projets englobent à présent des départements non techniques tels que par exemple la déontologie, le risque ou encore de l’UX.


              Toutefois bien que le RGPD constitue un véritable tremplin en terme de gouvernance d'entreprise, il ne saurait à lui seul orienter la stratégie analytique adaptée à l’organisation. Le RGPD balise la stratégie sur le plan juridique mais ne doit pas occulter les arbitrages nécessaires à l’implémentation d’une stratégie analytique. La performance algorithmique, l’équité des traitements, le juridique ou encore la mesure du ROI d’un algorithme, sont autant de dimensions recueillies en l’espèce afin d’en illustrer l’importance. Il s’agit d’arbitrages qui orientent sur le long terme la stratégie analytique de l’entreprise mais aussi son modèle d’affaire en balisant les possibilités offertes par l'exploitation de la donnée. La difficulté est de réaliser ces arbitrages de façon éclairée, cohérente et transversale à l'organisation. Cette stratégie doit être opérée au niveau C-suite, à travers son bras armé qui est le CDO en matière d’IA et de données. Ce dernier, doit être capable pour chaque traitement , chaque outil data driven, chaque algorithme, d’avoir une analyse multidimension. Mesurer l’utilisation effective afin de rationaliser ses investissements, auditer la conformité juridique, identifier la pertinence des technologies. La performance de chaque département doit pouvoir être comparée aux autres. A travers le management des algorithmes, il s’agit bel et bien d’harmoniser le cadre de traitements des données pour l’ensemble de l’organisation.

Le défi : 

Le défi des années à venir se situe sur l’industrialisation de l’IA. Le patrimoine de données sera intégré dans le bilan comptable. Le bilan RSE devra certainement intégrer les traitements et algorithmes afin de présenter les efforts en matière d’éthique et de responsabilité de l’entreprise envers les salariés et les clients. La gouvernance des algorithmes, la rationalisation et enfin la diffusion du patrimoine analytique au plus grand nombre de salariés devient alors une composante essentielle dans l'équation économique de l'entreprise.

En co-rédaction avec :


Charles Dadi : est diplômé de l’Ecole Centrale Paris en Machine Learning et de l’Université Paris VII en modélisation aléatoire. Il a débuté sa carrière chez Natixis en tant que stratégiste quantitatif. Il rejoint par la suite Ekimetrics, cabinet de conseil en stratégie orienté data en tant que lead data scientist. Il fonde en 2017 Factonics qui développe la première plateforme de management de l’IA. Charles est également directeur scientifique du master Executive en data strategy à MediaSchoolExecutive.

Rebecca Dadi : est diplômée en Droit des affaires de l'Université Panthéon-Sorbonne ainsi qu’en Big Data à l'INSEEC Business School Paris. Rebecca est actuellement consultante en protection des données et en partenariat de recherche sur le sujet de l'éthique, du droit et des algorithmes.