RGPD : renforcer la confiance nécessaire à l’économie de la donnée et de l’IA

L'économie de la donnée et de l'IA nécessite que les citoyens confient en masse leurs données personnelles aux acteurs qui les traiteront. Pour cela, ils doivent pouvoir leur faire confiance : c’est un des objectifs du RGPD.

Le scandale Facebook / Cambridge Analytica a mis en évidence une vérité qui mérite d’être rappelée : le développement de l’économie de la donnée repose notamment sur la confiance des citoyens envers les dépositaires de leurs données personnelles. Le RGPD va entrer en vigueur au même moment ou presque ; or, les nouvelles obligations qu’il impose aux entreprises, pendant des nouveaux droits qu’il crée pour les citoyens, ont pour objectif de fonder cette confiance.

Les mutations économiques et technologiques actuelles nécessitent que les citoyens confient leurs données personnelles à des entreprises. Les algorithmes à la base des progrès de l’intelligence artificielle s’améliorent grâce aux grandes quantités de données utilisées par les géants du numérique pour leur permettre d’apprendre par eux-mêmes. Ils se nourrissent donc indirectement de la confiance des citoyens dans les entreprises auxquelles ils confient des données en masse (confiance et confier viennent du latin confidere). Si la défiance monte, alors le modèle à la base de l’économie de la donnée et de l'intelligence artificielle menace de s’effondrer.

Cette confiance est très fragile : à titre d’exemple, avant même que n’éclate le scandale Facebook/Cambridge Analytica, 69 % des français avaient déjà renoncé à installer une application afin de protéger leurs données personnelles[1]. Une brèche s’est ouverte dans les fondations de l’économie de la donnée.

L’intervention du pouvoir politique à travers le RGPD contribuera sans doute à colmater cette brèche : la consécration du droit à l’oubli, du droit au déréférencement, de la portabilité des données ou encore le renforcement du droit au consentement devraient apaiser les craintes des citoyens. Mais cette règlementation ne saurait suffire à elle seule : les acteurs spécialistes de la collecte et de l’analyse de données personnelles doivent prendre pleinement conscience de l’importance de leur protection. Les déclarations du PDG de Facebook devant le Congrès américain, certes contraintes, en sont l’illustration.

Les instituts d’étude d’opinion et de marketing regroupés au sein de Syntec Etudes, qui recueillent, traitent et analysent des données personnelles depuis leur apparition il y a 80 ans, ont fait ce constat et agi par anticipation ; ils ont développé des bonnes pratiques au cours de décennies d’expérience. En décembre 2016, ils ont remanié profondément leur code de conduite, sans attendre l’application du RGPD, pour intégrer dans l’éthique de leur métier la collecte et l’analyse des données nouvelles issues du web et des réseaux sociaux[2].

Cette charte rénovée définit trois principes fondamentaux : la transparence sur la collecte et l’utilisation des données personnelles, la responsabilité de protection de ces données collectées contre tout accès ou publication non-autorisés, une éthique irréprochable pour éviter tout préjudice pour les participants et la réputation du secteur. Elle dépasse l’approche méthodologique pour placer le renforcement de la confiance du public et des clients au rang d’objectifs globaux.

Le code rappelle en outre que les instituts d’étude, contrairement aux acteurs du marketing direct par exemple, n’ont pas pour objectif d’influencer les comportements mais simplement de les comprendre, pour aider les organisations dans leurs prises de décision.

Ainsi, toutes les pratiques douteuses qui font actuellement scandale auraient été impensables dans le cadre défini par cette charte : à titre d’exemple, un institut doit expliquer clairement aux participants d’une enquête quelles sont les données personnelles collectées, comment celles-ci vont être utilisées et qui va y avoir accès. Sur les réseaux sociaux, la captation de données sans consentement via un prétexte de recherche est formellement proscrite par la charte.

Si l’intervention du législateur à travers le RGPD est nécessaire au développement de l’économie de la donnée et de l’intelligence artificielle, une implication spontanée des acteurs qui ont pour métier de traiter ces données s’impose également. A cette double condition, les évolutions en cours pourront profiter à tous et fonder les progrès de demain.

[1] Baromètre du numérique, présenté par l'Autorité française de régulation des télécoms (Arcep), le Conseil général de l'économie (CGE) et l'Agence du numérique, novembre 2017

[2] Voir le Code international ICC/ESOMAR révisé en 2016, traduit en français par SYNTEC Etudes, LIEN