2020, le début d'un big data éthique concret ? Pas si sûr...

Un code de conduite mondial touchant aux données commence à se dessiner. Mais est-ce un simple effet de mode ou entrons-nous réellement dans l'âge de raison du big data ?

Éthique. Le mot est sur toutes les lèvres lorsque l’on aborde les thématiques du big data et de l’intelligence artificielle. L’Unesco l’a récemment défini comme principal objectif avec la promesse d’élaborer un cadre normatif dans les 18 prochains mois permettant une gestion raisonnée des données. Les organisations semblent donc s’être emparées du sujet avec l’élaboration d’un code de conduite mondial, et c’est une bonne nouvelle… Mais est-ce un simple effet de mode ou entrons-nous réellement dans l’âge de raison du big data ?

Big data : les risques éthiques, une réalité !

Les progrès technologiques en matière de big data ont été fulgurants ces dernières années, mais ces avancées soulèvent d’importantes questions liées à la sécurité et à l’éthique des données. Alors que la recherche universitaire s’est d’abord concentrée sur les aspects scientifiques porteurs d’innovations technologiques, la recherche en matière d’éthique est restée trop longtemps aux abonnés absents.

Biais algorithmiques, profilage, fake news, utilisation abusive des données personnelles… Les dérives morales associées au big data sont pourtant nombreuses. Gartner avait prédit que la moitié des abus en matière d’éthique commerciale résulterait de l’exploitation inappropriée du big data(1). La dernière décennie s’est d’ailleurs ponctuée de scandales liés à l’usage de nos données ; Cambridge Analytica, le plus marquant, aura plus que jamais mis en avant la responsabilité des organisations vis-à-vis des données qu’elles détiennent. Il illustre parfaitement le lien entre dérives politiques et big data, et surtout la place croissante de celui-ci dans des processus décisionnels relevant de la sphère privée. Du profilage à la manipulation et à l’affaiblissement politique, il n’y a qu’un pas.

Au-delà de l’utilisation abusive des données, les progrès de l’IA soulèvent la question bien connue des biais algorithmiques. Le terme fait référence aux risques d’introduction de discriminations ou d’une réalité déformée liés à la conception des algorithmes, avec pour conséquence des enjeux sociaux et de justice clairement identifiés. Outil puissant, l’intelligence artificielle a tendance à reproduire et à encourager les stéréotypes. D’ailleurs la faible représentation des femmes dans ce secteur pose un problème croissant et multiplie le risque de voir apparaître des biais sexistes. D’après le rapport 2019 d’Element AI, les femmes ne constitueraient que 18% des spécialistes en IA à l’échelle mondiale. En parallèle, un rapport publié par l’Unesco en mai dernier "I’d blush if I can" accusait ouvertement les assistants vocaux de véhiculer des stéréotypes sexistes et a appelé à rendre la filière plus inclusive en rétablissant une parité homme/femme. Bien que ce déséquilibre ait de nombreuses conséquences, c’est avant tout le spectre des biais algorithmiques qui inquiète…

Le RGPD, notre planche de salut ?

L’ensemble des acteurs de la filière semble d’ailleurs avoir pris conscience de la nécessité d’encadrer l’usage de l’IA et du big data via un code éthique. Des comités font ainsi leur apparition pour faciliter les prises de décisions ou encore anticiper les dérives possibles.

Si le sujet de la donnée est au cœur de notre société et de nos préoccupations, c’est dû à l’explosion du numérique et l’accélération du digital. La collecte, l’analyse de la donnée et les politiques de confidentialité ne sont pas nouvelles, mais IBM estime que 90% des données mondiales ont été créées rien que ces deux dernières années. Cette évolution bien que récente, a poussé les organisations à engager et approfondir leur réflexion autour du respect de la vie privée et des pratiques éthiques de la donnée.

Plusieurs gouvernements ont ainsi mis en place des lois pour protéger les consommateurs ; le RGPD posant un premier décor législatif uniformisé à l’échelle européenne autour de la notion de propriété de la donnée. L’objectif ? Accorder plus de contrôle aux citoyens sur leurs données personnelles.

Depuis son entrée en vigueur, le RGPD impose aux entreprises de s’assurer de la qualité de leurs données qui doivent accélérer sur la gestion de la conformité. De nouveaux métiers font leur apparition comme le data protection officer qui devient le gardien de nos données. Les entreprises se dotent désormais plus volontiers de professionnels et de compétences en matière d’exploitation et de protection de la donnée. Le RGPD, loin d’être un obstacle en matière de stratégie analytique, a eu aussi l’avantage majeur d’accélérer l’acculturation des équipes à la gouvernance de la donnée.  Selon Keyrus, 36% des entreprises auraient ainsi déclaré que le RGPD les a incitées à lancer une démarche de data governance et à améliorer la qualité de leurs données(2). Des progrès qui permettent l’amélioration de modèles d’apprentissage et l’élaboration d’algorithmes d’intelligence artificielle plus fiables.

Data, business & éthique, le combo impossible ?

Si la réglementation du RGPD est porteuse d’espoir, elle n’est pas suffisante à elle seule pour garantir l’éthique des datas.

Les entreprises doivent intégrer une nouvelle culture en matière de données personnelles : impliquer le consommateur avec ses propres données et lui donner le pouvoir de contrôler – quand il le veut – la quantité et le type de données partagées. La data éthique sera celle qui permettra de réconcilier propriétaires et utilisateurs de la donnée.

Les réglementations actuelles ont également leurs limites : elles s’appliquent dans un territoire donné et restreint (par exemple l’Europe dans le contexte du RGPD) et ne prennent donc pas en compte les données que les entreprises étrangères collectent sur les consommateurs européens. Malheureusement, la mise en place d’une telle réglementation à l’échelle internationale relève aujourd’hui largement de l’utopie malgré la volonté de l’ONU de l’inscrire sur sa feuille de route.

Repenser la recherche scientifique semble également indispensable. Si de nombreux penseurs français plaident pour une intelligence artificielle au service de l’humain, la connaissance en matière de biais algorithmiques et d’explicabilité des modèles est insuffisante et demeure encore trop largement entre les mains des GAFA.

Nous sommes donc aujourd’hui à la croisée des chemins : il ne tient qu’à nous de favoriser l’utilisation éthique et responsable de l’intelligence artificielle. Finalement, il est aujourd’hui question de cas d’usage et de valeur : quelles données collectons-nous et pour quelle utilisation ? Une chose est sûre, l’approche choisie par les organisations doit plus que jamais être fondée sur les droits humains pour reconstruire la confiance !

(1) Peut-on vraiment lier l'éthique et le big data ? (Decideo)

(2) Guide du Big Data 2019/2020, Big Data Paris, section « Qualité des données »